一种基于前景和背景特征融合细化的伪装目标检测方法

    公开(公告)号:CN118314427A

    公开(公告)日:2024-07-09

    申请号:CN202410417600.1

    申请日:2024-04-09

    Abstract: 本发明涉及一种基于前景和背景特征融合细化的伪装目标检测方法。包括如下步骤:以PVTv2为骨干网络提取伪装物体图像的多个层次的特征;将最高层特征通过分层特征定位模块来探索重要的位置信息以实现伪装目标的初步定位;利用双分支融合模块同时利用图像中前景和背景信息有助于精确的识别伪装目标;利用残差细化模块有效的融合不同层次的特征提升检测的性能;利用加权二值交叉熵和加权IOU损失共同来训练模型。进一步提高了计算机视觉中伪装目标检测在不同场景下检测的效果。

    一种基于形状感知和像素卷积的跨模态RGB-D语义分割方法

    公开(公告)号:CN116433904A

    公开(公告)日:2023-07-14

    申请号:CN202310347813.7

    申请日:2023-03-31

    Abstract: 本发明属于计算机视觉领域,提供了一种基于形状感知的跨模态RGB‑D语义分割方法,包括以下步骤:1)获取训练和测试该任务的RGB‑D数据集,并定义本发明的算法目标;2)利用深度学习技术,构建基于形状感知和像素卷积并通过双编码器‑解码器结构构建RGB‑D语义分割网络模型;3)构建一个跨模态特征融合网络用于生成多模态特征;4)构通过交叉融合方法,融合跨模态特征,以增强多模态特征的高级语义信息;5)DeepLabV3+的解码器中,将编码器的输出上采样,使分辨率和低层级的feature一致。将特征层连接进行一次3×3的卷积,在经过sigmoid函数激活,得到预测的语义图Pest;6)预测的显著图Pest与人工标注的语义分割图PGT计算损失;7)对测试数据集进行测试,生成显著图Ptest,并使用评价指标进行性能评估。

    一种基于Transformer的跨模态融合网络的RGB-D语义分割方法

    公开(公告)号:CN116452805A

    公开(公告)日:2023-07-18

    申请号:CN202310401129.2

    申请日:2023-04-15

    Abstract: 发明名称:一种基于Transformer的跨模态融合网络的RGB‑D语义分割方法摘要:本发明提供了一种基于Transformer的跨模态融合的RGB‑D语义分割方法,所述方法利用RGB图像和Depth图像的多模态数据,提取跨模态特征用于计算机视觉中的语义分割任务。本发明的贡献主要在于通过考虑Depth特征出发,意识到深度传感器获得的深度学习存在不可靠信息(如,一些深度传感器读取到的深色的物体或者反光的表面的读数往往不准确或者存在空洞),提出利用双边滤波来加强Depth特征的作用,并通过一个跨模态残差融合模块有效的融合RGB特征和Depth特征。通过提出的方法可以有效地处理RGB图像语义分割所遭遇的挑战(很难区分具有相似颜色和纹理的实例),并且可以有效的利用Depth图像。

    一种基于服装风格特征融合的换衣行人重识别方法

    公开(公告)号:CN116612497A

    公开(公告)日:2023-08-18

    申请号:CN202310568762.0

    申请日:2023-05-17

    Abstract: 发明名称:一种基于服装风格特征融合的换衣行人重识别方法摘要:本发明提供一种基于服装风格特征融合的换衣行人重识别方法,属于计算机视觉技术领域。根据人体语义分割信息定位服装区域。通过服装流网络分支获得服装风格的特征表示,通过身份流网络分支获得身份特征和视觉变换特征,以服装风格特征和身份特征得分之和做为检索相似行人图像的标准。本发明通过服装流网络分支提取特征,尽可能地平衡服装风格信息和身体信息的权重,并获得更可靠的辨别性特征。通过身份流网络分支,提取衣服无关的视觉语义信息,为行人提取更稳健的特征表示。本发明具备科学性、系统性和鲁棒性的技术效果。

Patent Agency Ranking