基于多通道分解的图像融合方法

    公开(公告)号:CN106023122A

    公开(公告)日:2016-10-12

    申请号:CN201610291857.2

    申请日:2016-05-05

    Applicant: 江南大学

    Abstract: 一种基于多通道分解的图像融合方法。(1)对源图像多通道分解的特征提取:对源图像进行多通道分解,得到图像的结构分量和纹理分量;(2)对基于稀疏表示的融合规则进行设置:图像经多通道分解后进行分块向量化,对向量化后的多个分块进行稀疏表示,学习超完备字典,然后计算各列向量在字典下的稀疏表示系数;(3)系数融合:把每幅图像相对应的图像块的稀疏表示系数按照一定的融合规则进行融合,分别获得结构图像和纹理的融合后的稀疏系数。(4)图像重构:重构是稀疏分解的逆过程,结合超完备字典与融合稀疏系数进行重构,进一步进行结构和纹理的重构,得到最后的融合图像。

    基于高阶奇异值分解和模糊推理的多聚焦图像融合方法

    公开(公告)号:CN103985104A

    公开(公告)日:2014-08-13

    申请号:CN201410057924.5

    申请日:2014-02-20

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于高阶奇异值分解和模糊推理的多聚焦图像融合方法。(1)对待融合的两幅多聚焦源图像分别进行滑动窗口分块,将分块后相互对应的源图像子块形成子张量;(2)对子张量进行高阶奇异值分解(HOSVD),采用基于模糊推理的加权平均融合规则对分解系数进行融合,通过提取分解系数的方差,区域能量,匹配度三个特征设计模糊推理规则;(3)对融合后系数进行HOSVD逆变换得到融合后图像子块;(4)将融合后的图像子块组合生成最终融合图像。本发明克服了传统多聚焦图像融合方法容易造成边缘失真的缺陷,很好地解决了图像融合中源图像对融合图像贡献程度的不确定性问题,使融合后图像质量得到明显提高。

    基于多状态上下文隐马尔科夫模型的红外和可见光图像融合方法

    公开(公告)号:CN111754447B

    公开(公告)日:2024-09-24

    申请号:CN202010638215.1

    申请日:2020-07-06

    Applicant: 江南大学

    Abstract: 本发明公开了基于多状态上下文隐马尔科夫模型的红外和可见光图像融合方法,主要解决红外和可见光图像融合时细节丢失和对比度不高的问题。其实现步骤是:1)对待融合图像进行NSST变换,得到低频和高频子带;2)低频子带采用区域能量差异度的加权融合规则;3)高频子带设计了上下文隶属度,并建立MCHMM,根据多状态统计特征设计融合规则;4)融合后的高、低频系数执行NSST逆变换获得融合图像。本发明充分考虑了系数之间的相关性,精确地表示源图像的纹理、细节等特征,充分提取红外图像的目标信息,增强图像的对比度,改善视觉效果,相比传统的融合方法极大地提高了融合图像的质量。

    基于区间二型模糊集和CHMM模型的图像融合方法

    公开(公告)号:CN113379666B

    公开(公告)日:2024-03-12

    申请号:CN202110764386.3

    申请日:2021-07-06

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于区间二型模糊集和CHMM模型的图像融合方法,涉及图像融合领域,包括:对两幅待融合图像的低频子带进行活动测度度量,并根据低频活动测度进行低频子带系数融合得到低频融合子带;利用上下文隐马尔可夫模型描述高频子带系数之间的相关性,构建得到高频子带系数的T2‑FCHMM统计模型;将得到的高频子带系数的边缘概率密度和模糊熵结合起来作为T2‑FCHMM模型统计特征与高频子带系数的区域能量结合得到高频子带系数的活动测度,根据高频子带系数的活动测度进行高频子带系数融合得到高频融合子带;对低频融合子带和高频融合子带进行逆变换得到融合图像,从而增加了融合图像的可信度和可理解性。

    基于自注意力机制的红外和可见光图像融合方法

    公开(公告)号:CN111709902B

    公开(公告)日:2023-04-18

    申请号:CN202010436324.5

    申请日:2020-05-21

    Applicant: 江南大学

    Abstract: 基于自注意力机制的红外和可见光图像融合方法,属于图像融合领域。主要解决图像融合时忽略人眼主观感受的重要性问题。其实现步骤是:1)搭建基于自注意力机制的深度自编码网络结构,以端到端的方式对特征提取,融合规则和重构规则同时学习;2)将编码层不同分支的特征图输入自注意力机制获得注意力图,并采用均值融合策略获得输出特征图;3)设计内容损失和细节损失两类损失函数,分别用于突出红外目标信息,锐化边缘和更好地利用源图像中的纹理细节;4)训练神经网络,并对自注意力机制进行可视化以调整网络结构和损失函数。本发明能通过学习注意力图以最佳方式分配注意力,获取图像关键信息,改善视觉效果,提高融合图像的质量。

    一种基于特征级Copula模型相似性的图像融合方法

    公开(公告)号:CN110570387B

    公开(公告)日:2023-04-07

    申请号:CN201910868807.X

    申请日:2019-09-16

    Applicant: 江南大学

    Abstract: 一种基于特征级Copula模型相似性的图像融合方法,属于图像融合领域。其步骤是:1)待融合图像进行QWT变换得到高频子带和低频子带;2)求出高频子带幅度和相位的亮度、对比度和结构度,并分别构建亮度、对比度、结构度的Copula模型;3)判定高频子带冗余性和互补性的特征类型,并设计相应的融合规则得到第一阶段高频子带融合系数;采用基于高频子带绝对值取大的融合规则得到第二阶段高频子带融合系数,根据加权规则得到最终的高频子带融合系数;4)采用基于低频相位梯度、相位局部方差和幅值能量的综合特征取大的融合规则得到融合后的低频子带系数;5)根据低频和高频的融合子带系数,利用QWT逆变换得到融合图像。

    基于非下采样剪切波和全局-区域-局部融合规则的图像融合方法

    公开(公告)号:CN109829873B

    公开(公告)日:2023-03-14

    申请号:CN201910068041.7

    申请日:2019-01-24

    Applicant: 江南大学

    Abstract: 本发明提供了一种基于非下采样剪切波和全局‑区域‑局部融合规则的图像融合方法,属于图像融合技术领域。主要解决从统计模型中提取单层次特征容易导致图像表示不准确的问题。其实现步骤是:1)待融合图像进行非下采样剪切波变换,得到高频、低频系数;2)低频子带系数采用基于平均梯度取大的融合规则,高频子带系数采用全局‑区域‑局部的融合规则;3)融合后的高、低频系数执行非下采样剪切波逆变换获得融合后的图像。本发明能充分考虑了系数之间的相关性,精确地表示源图像的纹理、细节等特征,从而能有效避免将错误信息引入融合图像中,提高视觉效果,相比传统的融合方法极大地提高了融合图像的质量。

    一种基于特征级Copula模型相似性的图像融合方法

    公开(公告)号:CN110570387A

    公开(公告)日:2019-12-13

    申请号:CN201910868807.X

    申请日:2019-09-16

    Applicant: 江南大学

    Abstract: 一种基于特征级Copula模型相似性的图像融合方法,属于图像融合领域。其步骤是:1)待融合图像进行QWT变换得到高频子带和低频子带;2)求出高频子带幅度和相位的亮度、对比度和结构度,并分别构建亮度、对比度、结构度的Copula模型;3)判定高频子带冗余性和互补性的特征类型,并设计相应的融合规则得到第一阶段高频子带融合系数;采用基于高频子带绝对值取大的融合规则得到第二阶段高频子带融合系数,根据加权规则得到最终的高频子带融合系数;4)采用基于低频相位梯度、相位局部方差和幅值能量的综合特征取大的融合规则得到融合后的低频子带系数;5)根据低频和高频的融合子带系数,利用QWT逆变换得到融合图像。

    一种基于TVL结构纹理分解的图像融合质量评价方法

    公开(公告)号:CN110555823A

    公开(公告)日:2019-12-10

    申请号:CN201910287905.4

    申请日:2019-04-11

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于TVL结构纹理分解的图像融合质量评价方法,属于图像融合领域。其主要测试两幅源图像经过某种融合方法融合之后融合质量的好坏,以此来说明融合方法的优劣。其实现的主要步骤为:(1)选择恰当的系数利用TVL将图像一级分别分解为一级结构图像、一级纹理图像;(2)利用相同的系数将一级纹理图像继续分解为二级结构图像以及二级纹理图像,再根据相应的系数给每幅分解图像分配相应的系数;(3)利用边缘梯度指标QG来计算一级结构图像、二级结构图像、二级纹理图像的融合得分;(4)最后结合(2)中的权重以及(3)中的融合得分来得出每种融合方法的总得分,根据总得分来评价融合方法的好坏。

    一种基于自学习神经单元的图像融合方法

    公开(公告)号:CN110084288A

    公开(公告)日:2019-08-02

    申请号:CN201910288070.4

    申请日:2019-04-11

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于自学习神经单元的图像融合方法,属于图像融合领域。其实现步骤是:1)将融合图像进入Mask R-CNN网络进行处理,得到相应的掩码图像,掩码矩阵,类别信息,得分信息;2)搭建自编码网络,利用卷积神经网络CNN进行图像特征的选取,融合,重构;3)对融合层的卷积权重进行稀疏赋值,加入最小/最大范数权值约束与L1正则项;4)分别计算融合图像与源图像的整体结构相似度SSIM,区域结构相似度SSIM与互信息MI;5)训练神经网络,调整参数。本发明能通过学习网络参数以最佳方式联合获得水平测量与权重分配,增强图像清晰度,改善视觉效果,提高融合图像的质量。

Patent Agency Ranking