基于红外特征挖掘及跨模态融合的深度补全方法

    公开(公告)号:CN119205583B

    公开(公告)日:2025-05-09

    申请号:CN202411724123.X

    申请日:2024-11-28

    Abstract: 本发明公开了一种基于红外特征挖掘及跨模态融合的深度补全方法,包括如下步骤:采集红外图像和稀疏深度图,在现有KBnet网络的基础上,增加红外自适应边缘增强及特征提取模块和跨模态特征立体扩散模块。本发明的基于红外特征挖掘及跨模态融合的深度补全方法针对红外图像低对比、低纹理的特点,提出了红外自适应边缘增强与特征提取模块,为补全网络提供更多特征,有助于稀疏深度图像中物体边缘补全的准确性。针对低分辨率红外图像引导高精度点云补全的问题,提出了跨模态特征立体融合模块,加强了跨模态特征融合型性能,能够平滑的填补缺失的深度区域。

    基于跨模态特征强化与交互的多模态图像语义分割方法

    公开(公告)号:CN115546489B

    公开(公告)日:2023-05-12

    申请号:CN202211471454.8

    申请日:2022-11-23

    Abstract: 本发明公开了一种基于跨模态特征强化与交互的多模态图像语义分割方法,包括:将对应的可见光图像和红外图像作为输入,采用双分支编码结构分别提取两种图像特征,在各个编码阶段,首先通过特征交互模块对提取的两种图像特征进行增强和交互,并将交互之后的特征送入下一阶段的编码模块,而后通过特征融合模块将经过增强和交互之后的特征进行融合,并将融合特征送入对应阶段的解码模块,最后采用上采样和跳层连接逐级解码,获得多模态图像语义分割结果。本发明从编码网络的数据流出发,利用注意力机制增强各自模态的有效特征,将增强后的特征与另一模态的特征交互,对单一模态的信息进行补充,最大程度利用跨模态信息解析场景。

    一种基于风格引导的泛化增强图像分类算法

    公开(公告)号:CN115578248B

    公开(公告)日:2023-03-21

    申请号:CN202211497758.1

    申请日:2022-11-28

    Abstract: 本发明公开了一种基于风格引导的泛化增强图像分类算法,共由四部分组成:多源域特征提取模块用来提取训练集中每个源域的高维特征;特征风格转换模块通过迁移统计特征的均值和方差将所有训练数据的浅层特征风格分别定向迁移到各个源域中;特征分布距离统计模块在训练结束后累积统计各源域中不同类别的特征中心,用于和测试样本进行域匹配;在线自适应分类模块在训练阶段基于不同的域迁移方向生成不同的分类器,在测试阶段根据匹配到的源域风格选择最适合的分类器进行分类。本发明采用与数据发散相反的方法,将训练数据中的多源特征风格信息统一到一种风格上,并对未知域的测试数据经过一致的迁移方式,从而达到泛化增强的目的。

    基于风格迁移数据增广的图像增强模型泛化方法

    公开(公告)号:CN114581356B

    公开(公告)日:2022-10-11

    申请号:CN202210496594.4

    申请日:2022-05-09

    Abstract: 本发明涉及一种基于风格迁移数据增广的图像增强模型泛化方法,属于图像增强模型的泛化技术领域。具体为通过风格迁移算法对原始模拟类静脉数据进行风格迁移处理;将风格迁移处理后的数据集与原始模拟类静脉数据集进行合成,得到风格迁移增广数据集;将风格迁移增广数据集作为图像增强网络的训练集进行训练,得到图像增强网络的泛化模型;将泛化模型在测试集上进行测试,并分析模型泛化效果。本发明基于类静脉风格迁移和随机化风格迁移2种数据增广手段,对图像增强模型实现泛化,以提升模型在真实手背浅表静脉数据测试集上的增强效果,特别是对于“误增强”问题的改善。

    基于光度与对比度互注意力的跨波段立体匹配算法

    公开(公告)号:CN113724308B

    公开(公告)日:2022-03-15

    申请号:CN202111286968.1

    申请日:2021-11-02

    Abstract: 本发明涉及基于光度与对比度互注意力的跨波段立体匹配算法,包括:1.采集数据集,2.搭建端到端的跨模态立体匹配网络,3.构建约束,4.构建注意力增强机制,5.模型训练,包括共有特征提取训练和共有特征的视差匹配训练。本发明完成了红外‑可见光立体匹配系统的搭建,提供可见光长波红外跨模态立体匹配算法;提出并设计基于自编码的特征相关性学习框架,在高层语义特征上挖掘不同波段共有信息;提出特征层约束与明度注意力约束机制,特征约束有效的提升了代价卷模块在跨模态立体匹配任务中的性能;明度注意力提高在低曝光条件下网络对有效信息获取的能力。

    基于对抗性语义引导与感知的红外和可见光图像融合方法

    公开(公告)号:CN113781377A

    公开(公告)日:2021-12-10

    申请号:CN202111292602.5

    申请日:2021-11-03

    Abstract: 本发明涉及基于对抗性语义引导与感知的红外和可见光图像融合方法,包括:1.生成融合网络ASGGAN,2.学习优化,利用分割网络作为判别器,分割网络和融合网络形成生成对抗网络关系,分割网络和融合网络在对抗学习的过程中不断优化,3.获取全局性和局部性的GAN网络loss函数,4.加入分割label,加入分割label作为判别器先验优化融合上的空间选择,5.综合评价。本发明利用分割网络来迁移语义信息到图像融合的过程,增强了融合图像的目标显著性;利用U型判别器,保留图像的全局结构特征和局部纹理,使图像拥有自然观感。

    基于隐式表征的绕视场景三维重建方法

    公开(公告)号:CN118864734B

    公开(公告)日:2025-02-14

    申请号:CN202411321280.6

    申请日:2024-09-23

    Abstract: 本发明公开了一种基于隐式表征的绕视场景三维重建方法,包括:使用激光器照射中继墙面,在中继墙面形成二次漫反射光斑,并通过照亮中继墙上的不同位置,在对面墙上生成不同角度的隐藏对象投影;通过光源估计方法估计二次光源所在三维坐标;通过二次光源在半球空间内向所有方向发射光线并终止于观测中继墙的物理关系建立神经阴影场模型,利用光线的累积透射率来表征光线传播到中继墙表面的概率;将构建神经阴影场模型的三维空间参数化表示为连续的MLP函数,并使用二值阴影标签监督光线累积透射率的优化,并最终通过深度积分获得隐藏空间的三维结构。该方法可以准确地重建隐藏物体的形状和轮廓细节。

Patent Agency Ranking