基于生成式对抗网络模型的数据增强行人再识别方法

    公开(公告)号:CN110188835B

    公开(公告)日:2021-03-16

    申请号:CN201910483958.3

    申请日:2019-06-05

    Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask‑RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。

    基于生成式对抗网络模型的数据增强行人再识别方法

    公开(公告)号:CN110188835A

    公开(公告)日:2019-08-30

    申请号:CN201910483958.3

    申请日:2019-06-05

    Abstract: 本发明涉及一种基于生成式对抗网络模型的数据增强行人再识别方法,包括使用Mask-RCNN图像分割算法分割出图像中行人的掩膜图像;结合掩膜图像和手工标注行人属性,训练一个端到端的改进星形生成式对抗网络,从一个摄像头下的真实行人图像生成任何数量摄像头下的假训练图像;使用训练好的改进星形生成式对抗网络生成所有真实图像对应的所有相机域的假训练图像;将真实图像和假训练图像一起送入行人再识别模型,计算行人图像间距离并完成行人再识别功能。本发明设计合理,利用生成式对抗网络生成更多的训练样本,同时生成的图像背景能够有效地表示相对应摄像头下的真实场景,有效提高行人再识别模型的鲁棒性和判决能力,有效提高了行人再识别的准确率。

    基于属性特征和加权的分块特征相融合的行人再识别方法

    公开(公告)号:CN109635636A

    公开(公告)日:2019-04-16

    申请号:CN201811273875.3

    申请日:2018-10-30

    CPC classification number: G06K9/00362 G06K9/629

    Abstract: 本发明涉及一种基于属性特征和加权的分块特征相融合的行人再识别方法,包括以下步骤:构造属性特征提取子网络,该子网络融合了手动提取的特征和深度神经网络提取的特征;采用设置加权的交叉熵损失函数来训练属性特征提取子网络;构造基于分块的特征提取子网络,该网络可融合多个分块的深度特征;训练基于分块的特征提取子网络,设置局部损失函数的加权融合层,自主学习不同的权重,进而赋予各局部损失函数;对整体网络进行训练,提取融合了属性特征和基于分块的深度特征的行人特征表示。本发明设计合理,其有效结合了属性特征和深度特征,在损失函数计算方法上进行优化,获得了很好的行人再识别结果,使得系统整体匹配准确率大大提升。

    针对视频数据行人再识别的LOMO3D特征提取方法

    公开(公告)号:CN107886116B

    公开(公告)日:2021-03-26

    申请号:CN201711033084.9

    申请日:2017-10-30

    Abstract: 本发明涉及一种针对视频数据行人再识别的LOMO3D特征提取方法,其技术特点是:将视频数据中的各帧分离出来,组织成图像序列的形式,并分割为一定长度的等长序列;将每个序列水平分割为若干扁平区域,并在这些区域中进一步划分子块,作为直方图统计的最小单位;对于每个子块,统计形成纹理直方图特征和HSV色域下的颜色直方图特征;将每个水平区域中的纹理和颜色直方图特征根据最大化原则进行整合并进行拼合,得到最终的LOMO3D特征描述子。本发明设计合理,充分利用了图像序列中的时空特征和时间信息,使得特征的描述能力性能远远高于单纯的空间域特征,试验表明本发明能够使得系统整体匹配率大大提升,优于目前其他的行人再识别算法。

    基于超特征融合与多尺度金字塔网络的目标检测方法

    公开(公告)号:CN109034210B

    公开(公告)日:2021-10-12

    申请号:CN201810721716.9

    申请日:2018-07-04

    Abstract: 本发明涉及一种基于超特征融合与多尺度金字塔网络的目标检测方法,包括利用深度卷积神经网络提取具有不同特征信息的分层多尺度特征图;进行超特征融合;构建新的多尺度金字塔网络;根据不同层分别构建不同大小和长宽比的目标候选框;构建一个新的用于多特征提取且能够防止梯度消失的卷积模块;利用多任务损失函数对多类别分类器和边界框回归器进行联合训练优化实现图像分类和目标定位功能。本发明利用深度卷积网络对目标的特征提取能力,考虑超特征融合方法改善特征表达能力,生成了一个新的模块防止梯度消失而且能更有效地帮助训练和提取特征,构建了用于目标检测的全卷积神经网络,提高了算法的检测精度,获得了良好的目标检测结果。

    基于全卷积网络的多特征融合的目标检测方法

    公开(公告)号:CN107563381A

    公开(公告)日:2018-01-09

    申请号:CN201710816619.3

    申请日:2017-09-12

    Abstract: 本发明设计了一种基于全卷积网络的多特征融合的目标检测方法,其主要技术特点是:搭建具有六个卷积层组的全卷积神经网络;利用卷积神经网络的前五组卷积层提取图像特征,并将其输出进行融合,形成融合特征图;对融合后的特征图进行卷积处理,直接产生固定数目的不同大小的目标边框;计算卷积神经网络生成的目标边框与真实边框之间的分类误差与定位误差,利用随机梯度下降法降低训练误差,得到最终训练模型的参数,最后进行测试得到目标检测结果。本发明利用了深度卷积网络对目标的强大的表示能力,构建了用于目标检测的全卷积神经网络,提出了新的融合特征方法,提高了算法的检测速度和精度,获得了良好的目标检测结果。

Patent Agency Ranking