-
公开(公告)号:CN111861880A
公开(公告)日:2020-10-30
申请号:CN202010506835.X
申请日:2020-06-05
Applicant: 昆明理工大学
Abstract: 本发明涉及一种基于区域信息增强与块自注意力的图像超分与融合方法,属于数字图像处理技术领域。本方法包含源图像超分辨率分支与融合超分辨率分支。在源图像超分辨率分支中,迭代使用特征提取块提取源图像特征图,并使用密集连接以充分利用前后的特征图信息。每个特征提取块的输出还将经过区域信息增强块以探索源图像中各个物体所在的区域,这些信息将辅助融合超分辨率分支精确预测融合决策图。在融合超分辨率分支中,两张源图像拼接在一起输入,结合源图像超分辨率分支中输入的区域增强后的源图像信息,迭代使用基于块自注意力机制的融合块,以更好地区分聚焦与非聚焦区域。每个分支的最后使用亚像素卷积,产生超分辨率的源图像及融合图像。
-
公开(公告)号:CN107358778A
公开(公告)日:2017-11-17
申请号:CN201710630768.0
申请日:2017-07-28
Applicant: 昆明理工大学
Abstract: 本发明涉及一种结合KNN算法的火灾报警器,属于安全监测技术领域。本发明包括中央处理模块、烟雾传感器、报警模块、存储模块、摄像模块、点型差温式探测器、定位模块。其中KNN算法理论简单、实现容易。本发明不但可以快速准确地定位出火灾报警的具体位置,并以短信的形式发送给设置好的指定号码,而且它还能通过存储模块在第一时间了解到火灾现场的情况,以便高效合理地组织救援,最大限度地降低人员伤亡和财产损失。
-
公开(公告)号:CN119648547B
公开(公告)日:2025-04-29
申请号:CN202510179028.4
申请日:2025-02-18
Applicant: 昆明理工大学
Abstract: 本发明涉及Q‑Bench大模型辅助感知的红外可见图像融合方法,属图像融合领域。本发明包括:将红外图像和可见光图像输入到各自的特征编码器中,获得红外图像特征和可见光图像特征后再进行拼接融合,得到融合特征,并通过融合特征重构出融合图像;将融合图像输入Q‑Bench大模型得到反馈文本,调和提示生成模块通过反馈文本特征和融合特征获取调和提示,将调和提示与融合特征一同输入映射调和模块中,对融合特征进行修正,利用修正的后融合特征重构出视觉效果优异的融合图像。本发明利用大模型强大的图像分析能力,对融合图像质量进行评估并对融合特征进行反馈,得到质量更高的融合图像,提升了融合性能。
-
公开(公告)号:CN119648547A
公开(公告)日:2025-03-18
申请号:CN202510179028.4
申请日:2025-02-18
Applicant: 昆明理工大学
Abstract: 本发明涉及Q‑Bench大模型辅助感知的红外可见图像融合方法,属图像融合领域。本发明包括:将红外图像和可见光图像输入到各自的特征编码器中,获得红外图像特征和可见光图像特征后再进行拼接融合,得到融合特征,并通过融合特征重构出融合图像;将融合图像输入Q‑Bench大模型得到反馈文本,调和提示生成模块通过反馈文本特征和融合特征获取调和提示,将调和提示与融合特征一同输入映射调和模块中,对融合特征进行修正,利用修正的后融合特征重构出视觉效果优异的融合图像。本发明利用大模型强大的图像分析能力,对融合图像质量进行评估并对融合特征进行反馈,得到质量更高的融合图像,提升了融合性能。
-
公开(公告)号:CN118918046A
公开(公告)日:2024-11-08
申请号:CN202411378707.6
申请日:2024-09-30
Applicant: 昆明理工大学
Abstract: 本发明涉及基于内容提示和任务提示的一体化图像恢复方法,属于计算机图像处理领域。本发明包括步骤:将预处理好的退化图像输入到内容提示生成网络,用于提取高频提示和低频提示再合并为内容提示;将预处理好的退化图像输入到任务提示生成网络,在前向传播过程中,利用这些学习到的向量来获取任务提示;将预处理好的退化图像输入到图像恢复网络通过前向传播过程进行特征提取。同时,通过内容提示嵌入模块和任务提示嵌入模块,将内容提示和任务提示嵌入到特征中,利用内容和任务相关的信息来指导图像的恢复过程,从而恢复图像;训练内容提示生成网络、任务提示生成网络和图像恢复网络。本发明使得图像恢复过程更加高效。
-
公开(公告)号:CN118229553B
公开(公告)日:2024-07-12
申请号:CN202410608515.3
申请日:2024-05-16
Applicant: 昆明理工大学
IPC: G06T5/50 , G06T5/60 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/44 , G06V10/52 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06N3/0895 , G06N3/0985
Abstract: 本发明涉及对比学习与语义感知的渐进式红外与可见光图像融合方法,属图像融合领域。包括:获取显著性目标检测掩码;再获得红外图像特征和可见光图像特征并将其通过注意力门限融合模块融合后,再获得融合图像和语义分割结果;计算融合损失和语义分割损失,优化整体网络的参数后,冻结整体网络的参数;利用显著性目标检测掩码和红外与可见光图像构造锚点图像,将渐进式编码器中不同层的特征输入解码器构造正负样本;通过三元组损失依次优化编码器不同层参数;将编码器参数冻结,通过融合和语义分割损失优化解码器参数。本发明利用对比学习思想提升网络的特征表示能力,语义分割损失通过反向传播向融合特征中注入语义信息,以此提高了融合性能。
-
公开(公告)号:CN118229553A
公开(公告)日:2024-06-21
申请号:CN202410608515.3
申请日:2024-05-16
Applicant: 昆明理工大学
IPC: G06T5/50 , G06T5/60 , G06V20/70 , G06V10/25 , G06V10/26 , G06V10/44 , G06V10/52 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06N3/0895 , G06N3/0985
Abstract: 本发明涉及对比学习与语义感知的渐进式红外与可见光图像融合方法,属图像融合领域。包括:获取显著性目标检测掩码;再获得红外图像特征和可见光图像特征并将其通过注意力门限融合模块融合后,再获得融合图像和语义分割结果;计算融合损失和语义分割损失,优化整体网络的参数后,冻结整体网络的参数;利用显著性目标检测掩码和红外与可见光图像构造锚点图像,将渐进式编码器中不同层的特征输入解码器构造正负样本;通过三元组损失依次优化编码器不同层参数;将编码器参数冻结,通过融合和语义分割损失优化解码器参数。本发明利用对比学习思想提升网络的特征表示能力,语义分割损失通过反向传播向融合特征中注入语义信息,以此提高了融合性能。
-
公开(公告)号:CN118195926A
公开(公告)日:2024-06-14
申请号:CN202410616956.8
申请日:2024-05-17
Applicant: 昆明理工大学
IPC: G06T5/50 , G06N3/0464 , G06V10/44 , G06V10/764 , G06V10/80
Abstract: 本发明涉及基于空间位置偏移感知的免配准多聚焦图像融合方法,属于图像融合技术领域、目标检测技术领域。本发明包括步骤:检测输入源图像的聚焦区域;将多聚焦图像对输入特征提取层,提取源图像特征;将源图像特征和聚焦检测结果输入空间位置偏移感知模块,获取偏移核大小以及各偏移核的概率;利用偏移核和偏移概率对待搬移图像的特征进行搬移,实现源图像特征空间位置的对齐。对齐后的特征经过重建解码层,计算对齐损失,优化空间偏移感知层;将搬移后的特征与基准图像的特征送入解码器,重建出无伪影的融合结果;计算融合损失,优化网络参数。本发明有效缓解了未配准图像融合产生的伪影问题,能够获取高质量的融合结果。
-
公开(公告)号:CN117934309A
公开(公告)日:2024-04-26
申请号:CN202410307105.5
申请日:2024-03-18
Applicant: 昆明理工大学
Abstract: 本发明涉及基于模态字典和特征匹配的未配准红外可见图像融合方法,属于图像融合技术领域。本发明主要解决了现阶段难以应对未对齐红外可见光图像对融合困难的问题,包括步骤:将固定图像和偏移图像输入到特征提取模块中,获得固定特征和偏移特征;将固定特征和偏移特征输入到跨模态表示学习模块中,获得统一表示的固定特征和偏移特征;将统一表示的固定特征和偏移特征输入特征匹配模块中,输出匹配矩阵;将匹配矩阵和偏移特征输入特征重组块中,利用匹配矩阵对偏移特征进行重组;将重组特征和固定特征输入融合模块中,并重构出红外可见光融合图像。本发明能矫正红外可见光图像对在空间上的未对齐,并消除融合结果中的伪影和偏移,提升了融合性能。
-
公开(公告)号:CN117893440A
公开(公告)日:2024-04-16
申请号:CN202410298586.8
申请日:2024-03-15
Applicant: 昆明理工大学
IPC: G06T5/70 , G06T5/60 , G06T5/73 , G06T5/90 , G06T7/11 , G06T7/50 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/084 , G06N3/0985
Abstract: 本发明涉及基于扩散模型和景深引导生成的图像去雾方法,属于计算机图像处理领域。本发明包括步骤:获取RGB雾霾图像,并对图像进行预处理;构建去雾网络,将预处理好的雾霾图像送入去雾网络,该网络通过正向扩散过程对输入图像进行破坏,然后预测雾霾并修复出正常区域;构建深度估计网络,将预处理好的雾霾图像送入深度估计网络,该网络会将处理好的雾霾图片处理得到对应的深度图;构建分割网络,将深度图片按照景深生成掩码矩阵并作用到去雾图片上,将远景区域进行分割;构建景深引导生成网络,利用去雾图片来指导远景区域的生成并输出最终的去雾结果图。
-
-
-
-
-
-
-
-
-