-
公开(公告)号:CN118710511A
公开(公告)日:2024-09-27
申请号:CN202410742581.X
申请日:2024-06-11
Applicant: 吉林大学
IPC: G06T5/50 , G06T5/60 , G06V10/40 , G06V10/80 , G06V10/82 , G06V10/44 , G06V10/54 , G06N3/0455 , G06N3/09 , G06N3/0464 , G06N3/048
Abstract: 本公开提供了一种基于深度特征感知的多焦点图像融合方法、装置、终端及存储介质,包括获取同一场景下的部分聚焦图像对,将其转化为灰度图,并作为融合模型的输入数据;将所述灰度图分别输入到双流网络中的一支,通过U‑模块的编码器和解码器提取并进行整合得到源图像的深度特征图;将每个分支的深度特征图经过特征融合模块得到初始决策图,并进一步进行决策强化得到最终决策图;将最终决策图和源图像进行融合,得到融合结果;引入基于像素稀疏表示的目标函数,在大规模训练数据集上进行迭代训练获得最优的融合模型。本公开致力于提取源图像的深度感知特征,从而得到高质量的融合结果。
-
公开(公告)号:CN117475283A
公开(公告)日:2024-01-30
申请号:CN202311415095.9
申请日:2023-10-29
Applicant: 吉林大学
IPC: G06V10/86 , G06V10/44 , G06V10/82 , G06N3/0464 , G06V10/774 , G06V10/46
Abstract: 本发明提出一种基于注意力机制的多焦点图像融合方法,该方法包括:第一借助卷积神经网络和注意力机制的性质,构建一个通用的端到端的多焦点图像融合网络模型,其输入为待输入的多焦点图像,输出为融合后的全聚焦图像;第二,构建一个接近真实情况的多焦点图像数据集,在该数据集上成功训练提出的融合模型;第三,将待融合图像输入到训练好的融合模型,得到最终的融合图像。本发明克服了其他传统或深度学习方法中忽视源图像重要信息的缺点,并具备较高的效率。实验结果表明,该方法能较好的融合各种多焦点图像。
-