一种基于显著图和兴趣点凸包的红外与可见光图像融合方法

    公开(公告)号:CN104574335B

    公开(公告)日:2018-01-23

    申请号:CN201510018267.8

    申请日:2015-01-14

    Abstract: 本发明属于图像处理技术领域,具体涉及一种基于显著图和兴趣点凸包的红外与可见光图像融合方法,包括如下步骤:首先,对红外图像进行显著性检测,得到二值化显著图;然后,对红外图像进行兴趣点检测;其次,进行去游离兴趣点处理得到显著兴趣点;再次,对显著兴趣点求取凸包;再通过对二值化显著图和凸包图像做“与”运算,得到目标区域,图像剩余部分作为背景区域;最后,分别对目标区域和背景区域采取不同的融合规则,实现红外与可见光图像的融合;该方法,能够剔除那些位于背景上的少数兴趣点,使得对显著兴趣点求取的凸包更加接近真实的目标,并通过与显著图结合,能够更准确地提取出目标区域,该方法简单、快速,能够有效提升融合性能。

    基于语义传播及混合多示例学习的Web图像检索方法

    公开(公告)号:CN106202256B

    公开(公告)日:2019-12-17

    申请号:CN201610498952.X

    申请日:2016-06-29

    Abstract: 本发明属于图像处理技术领域,具体提供了一种基于语义传播及混合多示例学习的Web图像检索方法,将图像的视觉特征与文本信息结合起来进行Web图像检索,首先将图像表示为BoW模型,然后对图像分别根据视觉相似度和文本相似度进行聚类,并通过文本类中的通用视觉词汇将图像所具有的语义特征传播到图像的视觉特征向量中;在相关反馈阶段,引入混合多示例学习算法,解决实际检索过程中的小样本问题。该检索方法与传统CBIR框架相比,以跨模态方式利用互联网图像的文本信息将图像的语义特征传播给视觉特征,并且在基于多示例学习的相关反馈中引入半监督学习应对小样本问题,能够有效缩减语义鸿沟,并提升Web图像检索性能。

    基于语义传播及混合多示例学习的Web图像检索方法

    公开(公告)号:CN106202256A

    公开(公告)日:2016-12-07

    申请号:CN201610498952.X

    申请日:2016-06-29

    Abstract: 本发明属于图像处理技术领域,具体提供了一种基于语义传播及混合多示例学习的Web图像检索方法,将图像的视觉特征与文本信息结合起来进行Web图像检索,首先将图像表示为BoW模型,然后对图像分别根据视觉相似度和文本相似度进行聚类,并通过文本类中的通用视觉词汇将图像所具有的语义特征传播到图像的视觉特征向量中;在相关反馈阶段,引入混合多示例学习算法,解决实际检索过程中的小样本问题。该检索方法与传统CBIR框架相比,以跨模态方式利用互联网图像的文本信息将图像的语义特征传播给视觉特征,并且在基于多示例学习的相关反馈中引入半监督学习应对小样本问题,能够有效缩减语义鸿沟,并提升Web图像检索性能。

    一种基于显著图和兴趣点凸包的红外与可见光图像融合方法

    公开(公告)号:CN104574335A

    公开(公告)日:2015-04-29

    申请号:CN201510018267.8

    申请日:2015-01-14

    Abstract: 本发明属于图像处理技术领域,具体涉及一种基于显著图和兴趣点凸包的红外与可见光图像融合方法,包括如下步骤:首先,对红外图像进行显著性检测,得到二值化显著图;然后,对红外图像进行兴趣点检测;其次,进行去游离兴趣点处理得到显著兴趣点;再次,对显著兴趣点求取凸包;再通过对二值化显著图和凸包图像做“与”运算,得到目标区域,图像剩余部分作为背景区域;最后,分别对目标区域和背景区域采取不同的融合规则,实现红外与可见光图像的融合;该方法,能够剔除那些位于背景上的少数兴趣点,使得对显著兴趣点求取的凸包更加接近真实的目标,并通过与显著图结合,能够更准确地提取出目标区域,该方法简单、快速,能够有效提升融合性能。

Patent Agency Ranking