一种行人重识别方法
    1.
    发明授权

    公开(公告)号:CN110110689B

    公开(公告)日:2023-05-26

    申请号:CN201910403777.5

    申请日:2019-05-15

    Applicant: 东北大学

    Abstract: 本公开实施例涉及一种行人重识别方法,其包括:从多个图片中提取得到行人CNN特征图;采用对抗擦除学习的方式模仿对所述行人CNN特征图的判别性区域被遮挡的情形进行模型训练,得到训练模型;利用所述训练模型结合目标行人图像和待识别行人图像进行行人重识别,得到行人重识别结果。本公开实施例提供的方法提供一种特征级别数据增强策略,辅分类器的输入特征图被部分擦除,增加行人特征的变体和抵抗行人被遮挡的情形,提高深度行人重识别模型的泛化能力。

    一种基于躯体分解和显著性检测的行人重识别方法

    公开(公告)号:CN108520226B

    公开(公告)日:2020-07-28

    申请号:CN201810288204.8

    申请日:2018-04-03

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于躯体分解和显著性检测的行人重识别方法,方法包括:首先,将行人图像解析为语义具有深度分解网络(DDN)的地区,利用滑动窗口和颜色的方法匹配将行人从杂乱环境中分离出来。接下来,行人图像被分成小块,根据背景扣除的结果和显著性区域,自动选择有效的图片区域。最后,提出一个局部描述的方法协助提取背景扣除后的全局视觉特征以重新识别人。具体地,提取了PHOG,HSV直方图和SIFT特征从选定的图片区域和从整个图像提取LOMO特征。本发明中局部描述算子和全局特征紧密结合,有效提高不同摄像机中行人图像的重识别率。

    一种行人重识别方法
    3.
    发明公开

    公开(公告)号:CN110110689A

    公开(公告)日:2019-08-09

    申请号:CN201910403777.5

    申请日:2019-05-15

    Applicant: 东北大学

    Abstract: 本公开实施例涉及一种行人重识别方法,其包括:从多个图片中提取得到行人CNN特征图;采用对抗擦除学习的方式模仿对所述行人CNN特征图的判别性区域被遮挡的情形进行模型训练,得到训练模型;利用所述训练模型结合目标行人图像和待识别行人图像进行行人重识别,得到行人重识别结果。本公开实施例提供的方法提供一种特征级别数据增强策略,辅分类器的输入特征图被部分擦除,增加行人特征的变体和抵抗行人被遮挡的情形,提高深度行人重识别模型的泛化能力。

    一种基于躯体分解和显著性检测的行人重识别方法

    公开(公告)号:CN108520226A

    公开(公告)日:2018-09-11

    申请号:CN201810288204.8

    申请日:2018-04-03

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于躯体分解和显著性检测的行人重识别方法,方法包括:首先,将行人图像解析为语义具有深度分解网络(DDN)的地区,利用滑动窗口和颜色的方法匹配将行人从杂乱环境中分离出来。接下来,行人图像被分成小块,根据背景扣除的结果和显著性区域,自动选择有效的图片区域。最后,提出一个局部描述的方法协助提取背景扣除后的全局视觉特征以重新识别人。具体地,提取了PHOG,HSV直方图和SIFT特征从选定的图片区域和从整个图像提取LOMO特征。本发明中局部描述算子和全局特征紧密结合,有效提高不同摄像机中行人图像的重识别率。

    一种基于视觉词袋模型的行人重识别方法

    公开(公告)号:CN108509925B

    公开(公告)日:2020-04-14

    申请号:CN201810307805.9

    申请日:2018-04-08

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于视觉词袋模型的行人重识别方法,方法包括:101、提取每张图像的局部区域的行人特征;102、获取每一个行人特征的字典和稀疏表示向量;103、依据所有行人特征的所述字典、稀疏表示向量,构建每张图像的视觉词袋模型;104、采用每张图像的视觉词袋模型,获取该图像的视觉词袋直方图;105、将任意两张图像的每一个行人特征的稀疏表示向量和视觉词袋模型进行匹配,获取匹配结果,所述任意两张图像中的一张图像为一个摄像机中的图像,另一张图像为另一个摄像机中的图像。上述方法能够解决Office文档在转换过程中文档格式跑版的问题。上述方法能够提高行人重识别的准确率,减少运算量。

    一种基于深度学习的目标检测与识别方法

    公开(公告)号:CN107229904A

    公开(公告)日:2017-10-03

    申请号:CN201710268957.8

    申请日:2017-04-24

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于深度学习的目标检测与识别方法,是在Linux系统下,利用caffe平台搭建该模型由卷积层、池化层、RPN层、ROIs层、ROI Pooling层、全连接层、Sparse PCA层、预测窗口与预测类别输出层组成。本发明提出了多RPN层融合策略,增强了对各尺度目标的检测能力;在两个全连接层之间添加了新的Spares PCA层,在降低了计算量的同时保证了准确率;最后针对目标位置预测,提出了对数抑制方法,改进了目标位置回归算法。最终达到了在保证检测精度的同时提高检测速度的目的。本发明实现了准确快速得对感兴趣目标的检测与识别,具有重大的应用价值。

    一种基于深度学习的目标检测与识别方法

    公开(公告)号:CN107229904B

    公开(公告)日:2020-11-24

    申请号:CN201710268957.8

    申请日:2017-04-24

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于深度学习的目标检测与识别方法,是在Linux系统下,利用caffe平台搭建该模型由卷积层、池化层、RPN层、ROIs层、ROI Pooling层、全连接层、Sparse PCA层、预测窗口与预测类别输出层组成。本发明提出了多RPN层融合策略,增强了对各尺度目标的检测能力;在两个全连接层之间添加了新的Spares PCA层,在降低了计算量的同时保证了准确率;最后针对目标位置预测,提出了对数抑制方法,改进了目标位置回归算法。最终达到了在保证检测精度的同时提高检测速度的目的。本发明实现了准确快速得对感兴趣目标的检测与识别,具有重大的应用价值。

    一种基于颜色属性和PCA的时空上下文快速追踪方法

    公开(公告)号:CN108520527A

    公开(公告)日:2018-09-11

    申请号:CN201810264378.0

    申请日:2018-03-28

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于颜色属性和PCA的时空上下文快速追踪方法,方法包括:建立目标跟踪的空间上下文模型;建立上下文先验概率模型;建立目标位置置信图模型来表示目标位置;获取关于目标位置的似然函数模型;将构造的似然函数模型从空间域转换到频域;根据上下文先验概率模型和转换到频域的似然函数模型来训练学习空间上下文模型;提取待识别目标物体的多维度颜色属性特征;归一化处理颜色属性特征,利用PCA算法对提取并归一化后的颜色属性特征做降维处理,获得最终特征向量;获取新的置信图模型,根据新的置信图模型最大值所对应的变量来确定目标的最大可能出现位置。上述方法能够提高跟踪准确度和鲁棒性,同时提高跟踪速度。

    一种基于视觉词袋模型的行人重识别方法

    公开(公告)号:CN108509925A

    公开(公告)日:2018-09-07

    申请号:CN201810307805.9

    申请日:2018-04-08

    Applicant: 东北大学

    Abstract: 本发明公开了一种基于视觉词袋模型的行人重识别方法,方法包括:101、提取每张图像的局部区域的行人特征;102、获取每一个行人特征的字典和稀疏表示向量;103、依据所有行人特征的所述字典、稀疏表示向量,构建每张图像的视觉词袋模型;104、采用每张图像的视觉词袋模型,获取该图像的视觉词袋直方图;105、将任意两张图像的每一个行人特征的稀疏表示向量和视觉词袋模型进行匹配,获取匹配结果,所述任意两张图像中的一张图像为一个摄像机中的图像,另一张图像为另一个摄像机中的图像。上述方法能够解决Office文档在转换过程中文档格式跑版的问题。上述方法能够提高行人重识别的准确率,减少运算量。

Patent Agency Ranking