-
公开(公告)号:CN115222636A
公开(公告)日:2022-10-21
申请号:CN202210841146.3
申请日:2022-07-18
Applicant: 吉林大学
Abstract: 本发明提供了一种基于生成对抗网络的多损失函数的遥感图像融合方法,包括:基于源图像中的全色图和多光谱图,构建数据集;构建生成器网络、空间判别器网络和光谱判别器网络,将所述数据集中的图像输入至所述生成器网络,生成伪图像,基于所述空间判别器网络与光谱判别器网络,判断所述伪图像的相似性;基于最小化损失函数,训练所述生成器网络、空间判别器网络和光谱判别器网络;基于训练后的所述生成器网络,融合所述源图像中的全色图和多光谱图,生成融合图像。本发明的融合效果优于传统融合算法及一般的基于深度学习的融合算法,在全尺寸图像上的表现更好,泛化能力更强,可以高效地进行遥感图像的融合。
-
公开(公告)号:CN114549384A
公开(公告)日:2022-05-27
申请号:CN202210172710.7
申请日:2022-02-24
Applicant: 吉林大学
Abstract: 本发明公开一种基于多尺度字典和递归滤波器的图像融合方法,包括步骤一、获取源图像,步骤二、字典训练及稀疏特征的计算,步骤三、基于自适应递归滤波器扩展得到像素级聚焦度量,步骤四、决策图的生成,步骤五、根据决策图及融合规则融合源图像;本发明采用多尺度稀疏特征作为数据驱动的块级聚焦度量,然后将其扩展到像素级,对时间成本和设备要求降低,能有效消除边界歧义,直接用于生成决策图而无需后处理。同时,还考虑了源图像之间的尺度差异和相关性,以构建稳健的聚焦度量,像素级聚焦度量克服了块级和手工聚焦度量的局限性,鲁棒性更强。
-
公开(公告)号:CN109272010B
公开(公告)日:2021-06-29
申请号:CN201810839303.0
申请日:2018-07-27
Applicant: 吉林大学
IPC: G06K9/62
Abstract: 本发明提出一种基于卷积神经网络的多尺度遥感图像融合算法,该方法包括:第一,借助卷积神经网络的性质,构建一个符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像;第二,构建一个合适的训练数据集,在该训练集上成功训练提出的融合模型;第三,将遥感全色图像Pan图像转换为模型需要的待融合图像;第四,将转化后的近似Pan图像和多光谱图像MS输入训练好的融合模型,得到最终的融合图像。本发明所述方法从大量数据中学习一个自适应的多尺度融合函数,其由统计学习而来,不是人为设计,更加合理。实验结果表明,所述基于卷积神经网络的多尺度融合方法能够较好地处理不同卫星、不同波段的遥感图像。
-
公开(公告)号:CN110443775A
公开(公告)日:2019-11-12
申请号:CN201910534050.0
申请日:2019-06-20
Applicant: 吉林大学
Abstract: 本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法;该方法包括以下步骤:首先,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;第二,将它们输入到不同的卷积神经网络中,以便获得不同的权重图;第三,通过执行一系列处理后重新定义决策图;第四,根据它们的决策图,将频率子带分别融合;最后,通过逆DWT获得融合图像;是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。
-
公开(公告)号:CN109272010A
公开(公告)日:2019-01-25
申请号:CN201810839303.0
申请日:2018-07-27
Applicant: 吉林大学
IPC: G06K9/62
Abstract: 本发明提出一种基于卷积神经网络的多尺度遥感图像融合算法,该方法包括:第一,借助卷积神经网络的性质,构建一个符合遥感图像融合特性的多尺度卷积神经网络融合模型,其输入为待融合图像,输出为融合图像;第二,构建一个合适的训练数据集,在该训练集上成功训练提出的融合模型;第三,将遥感全色图像Pan图像转换为模型需要的待融合图像;第四,将转化后的近似Pan图像和多光谱图像MS输入训练好的融合模型,得到最终的融合图像。本发明所述方法从大量数据中学习一个自适应的多尺度融合函数,其由统计学习而来,不是人为设计,更加合理。实验结果表明,所述基于卷积神经网络的多尺度融合方法能够较好地处理不同卫星、不同波段的遥感图像。
-
公开(公告)号:CN115222637A
公开(公告)日:2022-10-21
申请号:CN202210871344.4
申请日:2022-07-22
Applicant: 吉林大学
Abstract: 本发明公开了一种基于全局优化模型的多模态医学图像融合方法,包括:获取已配准的图像对:解剖医学图像作为灰度图和功能图像作为三通道彩色图;将提取的功能图像的光照分量与单通道的灰度图像分别输入到全局优化分解的图像模块中,获得它们对应的基础层和细节层;将获得的基础层和细节层分别进行融合;将获得的融合的基础层和融合的细节层线性相加,获得融合的光照分量;将新的光照分量与输入的功能图像的颜色分量进行合并,获得最终的融合图像。本发明有效解决了医学图像融合算法中参数选择的不确定性,通过优化函数方法直接获得理想的融合图像。
-
公开(公告)号:CN115115895A
公开(公告)日:2022-09-27
申请号:CN202210896302.6
申请日:2022-07-28
Applicant: 吉林大学
IPC: G06V10/764 , G06V10/82 , G06V10/774 , G06N3/04 , G06N3/08 , G06V10/22 , G06V10/26 , G06V10/40
Abstract: 本发明提供了一种基于注意力机制的爆炸性手机X光图像分类方法,包括:获取所述爆炸性手机X光图像的数据集;构建分类模型,其中所述分类模型包括位置信息注意力模块和残差网络,所述位置信息注意力模块用于对所述爆炸性手机X光图像进行信息自适应聚合和重建;改进损失函数,基于改进后的所述损失函数对所述分类模型进行训练,通过训练后的所述分类模型对所述数据集中的图像进行特征提取,获取分类结果。本发明采用位置信息注意力模块引入到残差网络的设计,以及基于样本成本系数的损失函数指导网络学习,使分类模型具有强大的细节特征属性提取能力,能够准确分类带有爆炸物的手机。
-
-
-
-
-
-