-
公开(公告)号:CN109088893A
公开(公告)日:2018-12-25
申请号:CN201811239107.6
申请日:2018-10-23
Applicant: 桂林电子科技大学
CPC classification number: H04L63/1458 , H04L9/0861 , H04L9/3026 , H04L9/3236 , H04L9/3247 , H04L63/0245 , H04L63/0428 , H04L63/08 , H04L63/126 , H04L67/10
Abstract: 本发明公开一种云环境下基于聚合签密的多用户群认证通信方法,通过在云服务器认证模块查出伪造身份信息并通过聚合签密对用户的签名实行高效率的验证,以及过滤非法用户访问,并且基于数学困难问题使得恶意攻击者无法获得用户的私密信息,保证通信的高效性,防止了DDOS攻击。本发明具有实现高效性,安全性,易验证等特点,适合于需要用户负载量大的网络云服务器等。
-
公开(公告)号:CN109035189A
公开(公告)日:2018-12-18
申请号:CN201810782395.3
申请日:2018-07-17
Applicant: 桂林电子科技大学
CPC classification number: G06T5/50 , G06T5/009 , G06T2207/10048 , G06T2207/20221
Abstract: 本发明公开一种基于柯西模糊函数的红外与弱可见光图像融合方法,首先利用改进的引导滤波来自适应增强提高弱可见光图像暗区域的可视性,然后利用NSST对红外和增强后的弱可见光图像进行多尺度分解得到红外图像和增强后的弱可见光图像的低频分量与高频分量;接着,利用直觉模糊集构建柯西隶属函数对红外图像和增强后的弱可见光图像的低频分量进行融合,并利用自适应的双通道脉冲发放皮层模型对红外图像和增强后的弱可见光图像的高频分量进行融合;最后利用非下采样剪切波逆变换对融合后的低频分量和高频分量进行重构,得到最终融合图像。本发明能够更加有效地提取图像的细节信息,并获得更好的融合效果。
-
公开(公告)号:CN108846822A
公开(公告)日:2018-11-20
申请号:CN201810558973.5
申请日:2018-06-01
Applicant: 桂林电子科技大学
Abstract: 本发明公开了一种基于混合神经网络的可见光图像和红外光图像的融合方法,涉及图像识别技术领域,解决的问题是图像融合算法不需要监督学习提取特征进行分类从而实现图像融合,该方法包括如下步骤:(1)建立由基本单元堆叠而成的混合神经网络结构;(2)对训练和测试图像进行预处理;(3)使用可见光和红外光图像训练混合神经网络模型;(4)测试混合神经网络模型,得到最后的融合图像。采用本发明技术方案的图像融合算法不需要监督学习提取特征进行分类,改善了融合算法对先验知识的依赖性。
-
公开(公告)号:CN118918035A
公开(公告)日:2024-11-08
申请号:CN202410935035.8
申请日:2024-07-12
Applicant: 桂林电子科技大学
IPC: G06T5/73 , G06T5/50 , G06V10/764 , G06V10/774 , G06T3/4038 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于DFLLOD‑Net的低照度叠加雾天气下的目标检测方法,所述方法包括如下步骤:(1)构建低照度有雾图像数据集ExDark‑fog;(2)设计了低照度增强模块,提升图像在低光照条件下的亮度和对比度;(3)设计了去雾增强模块,有效去除雾气对图像清晰度的影响;(4)设计了去噪增强模块,减少图像噪声,增强图像质量;(5)设计了条件自适应模块,能够基于图像中的雾密度和光照强度等条件,自适应地调整权重,以优化协同以上三个不同增强处理模块的功能表现;(6)经过增强处理后的图像输入检测模块。DFLLOD‑Net网络通过这些高度专业化的模块和端到端的训练策略,实现了从图像预处理到目标检测的全流程自动化和最优化,极大提升了模型在复杂视觉条件下的性能和鲁棒性,为低照度叠加雾天气下的目标检测提供了一种创新的解决方案。
-
公开(公告)号:CN118710907A
公开(公告)日:2024-09-27
申请号:CN202410876738.8
申请日:2024-07-02
Applicant: 桂林电子科技大学
IPC: G06V10/26 , G06V10/40 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明申请公开了一种基于多尺度风格解耦网络MSD‑Net的低光照图像语义分割的方法,该网络能在光照较差的环境且不需要额外的人工标注或模拟生成训练数据的情况下,根据风格迁移理论将低光照图像分解成风格分量、内容分量和噪音分量,在添加随机噪音的情况下,对解耦后的分量进行不同尺度的特征提取,实现低光照图像的语义分割,包括如下步骤:1)构建模型训练数据集MSD‑Train和测试数据集MSD‑Test,2)构造解耦模块IDM,从图像中分解出风格分量、内容分量和噪音分量,3)构造随机噪声选取模块RNSM,将图像的噪音分量添加额外的随机干扰噪音之后与风格分量融合,4)构造内容分量特征提取网络CCFEN,提取内容分量不同尺度的语义特征,5)构造风格分量特征提取模块SCFEM和风格导向分割头SGSegHead,将风格分量通过SCFEM进一步提取特征之后,作用于内容分量,以实现对低光照图像进行语义分割。
-
公开(公告)号:CN113642500B
公开(公告)日:2024-03-19
申请号:CN202110966894.X
申请日:2021-08-23
Applicant: 桂林电子科技大学
IPC: G06V20/70 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/094 , G06N3/084 , G06N3/048
Abstract: 本发明公开了一种基于多阶段域自适应的低照度目标检测方法,所述方法包括:1)训练检测器;2)训练用于增强低照度图像的增强器;3)训练用于风格迁移的生成器;4)借助生成器对检测器进行初步微调;5)借助增强器对初步微调后的检测器进行再次微调;6)利用微调后的检测器检测增强后的低照度图像。这种方法检测精度更高,且无需有标注的低照度图像数据,与基于Faster R‑CNN的域自适应方法相比检测速度更快。
-
公开(公告)号:CN117456330A
公开(公告)日:2024-01-26
申请号:CN202311333750.6
申请日:2023-10-16
Applicant: 桂林电子科技大学
IPC: G06V10/82 , G06V10/774 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/25 , G06N3/0464 , G06N3/048 , G06N3/045 , G06N3/08
Abstract: 本发明公开了一种基于MSFAF‑Net的低照度目标检测方法,包括如下步骤:1)整合构建数据集;2)特征提取网络模块的训练;3)特征增强网络模块FEN的训练;4)特征融合网络模块FFM‑ECA的训练;5)对目标检测网络进行训练;6)对低照度目标模型进行训练测试。本发明方法使得低照度图像目标检测的特征图的特征表达能力更好、能提高低照度图像目标检测的精度。
-
公开(公告)号:CN117112828A
公开(公告)日:2023-11-24
申请号:CN202311298039.1
申请日:2023-10-09
Applicant: 桂林电子科技大学
IPC: G06F16/583 , G06F16/58 , G06F40/126 , G06T5/00
Abstract: 本发明公开了一种基于分支预测的低照度图像描述方法,包括如下步骤:1)处理图像描述数据集;2)建立图像描述词库;3)使用CLIP对图像及文本数据进行编码;4)对编码得到的特征通过语义筛选器得到图像的单词池;5)对图像进行增强和分支预测得到一组针对不同主体优化的注意力特征图;6)对每个注意力特征图结合单词池得到与特征图匹配度高的文本特征;7)对得到文本特征和图像特征解码生成描述语句。本发明采用分支预测的方法降低了模型对低照度图像特征的依赖程度,能够有效提高在低照度环境下图像描述模型的性能。
-
公开(公告)号:CN111931857B
公开(公告)日:2022-09-02
申请号:CN202010819355.9
申请日:2020-08-14
Applicant: 桂林电子科技大学
IPC: G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于MSCFF的低照度目标检测方法,其特征在于,包括如下步骤:1)依据公开标准数据集建立来源图像;2)光照估计的训练;3)特征提取的训练;4)训练目标检测提取预测框;5)对预测框进行非极大值抑制;6)对整个低照度目标检测网络进行Fine tuning与低照度图像目标检测。这种方法使得目标检测在低照度图像上特征图的表达能力更好、图像目标检测的精度更高。
-
公开(公告)号:CN112802039B
公开(公告)日:2022-03-01
申请号:CN202110100682.3
申请日:2021-01-26
Applicant: 桂林电子科技大学
Abstract: 本发明公开一种基于全局边缘注意力的全景分割方法,在原全景分割网络结构的基础上添加了一个全局边缘注意力模块,利用当前模型的全景分割网络对原始训练图像进行全景分割得到当前模型的全景分割掩码;利用当前模型的全局边缘注意力模块对全景分割掩码进行全局边缘注意力检测,得到当前模型的全景分割掩码边缘矩阵;利用当前模型的全局边缘注意力模块对原始训练图像进行全局边缘注意力检测,得到当前模型的边缘矩阵因子;利用边缘矩阵因子去引导全景分割网络的实例和语义的全景分割,有利于区分细节和边缘,增强分割效果,提高分割效率。
-
-
-
-
-
-
-
-
-