-
公开(公告)号:CN109886090B
公开(公告)日:2020-12-04
申请号:CN201910013082.6
申请日:2019-01-07
Applicant: 北京大学
Abstract: 一种基于多时间尺度卷积神经网络的视频行人再识别方法,包括:利用多时间尺度卷积神经网络模型处理视频,获得具有空间特征和多尺度时间特征的第一输出,其中,所述多时间尺度卷积神经网络由在空间卷积神经网络中插入多尺度的3D卷积层和残差注意力层获得;利用空间卷积神经网络模型处理所述视频,获得具有空间特征的第二输出;将所述第一输出和所述第二输出进行融合;根据融合结果,对所述视频中的行人进行步态识别和/或空间特征识别。本发明实现了对视频中行人的空间特征(衣着)以及步态的识别,具有更高的识别率。与2D神经网络相比,获取了多尺度的时间线索;与3D神经网路相比,引入的参数容量更小,在相同系统中的运行速度更快。
-
公开(公告)号:CN110543817A
公开(公告)日:2019-12-06
申请号:CN201910677983.5
申请日:2019-07-25
Applicant: 北京大学
Abstract: 本发明公开了一种基于姿势指导特征学习的行人再识别方法,包括:将原始图像进行姿势归一化处理,得到姿势归一化图像;将原始图像与姿势归一化图像进行权值共享处理后再分别进行全局平均池化,得到姿势不变特征;对原始图像进行身体区域划分得到若干身体区域图像,将原始图像与若干身体区域图像进行权值共享处理后再分别进行全局平均池化,得到局部描述特征;将姿势不变特征和局部描述特征连接为姿势指导特征。本发明提供的方法,获取对姿势变化具有鲁棒性的姿势不变特征和对错位误差具有鲁棒性的局部描述特征,利用姿势不变特征和局部描述特征组合成姿势指导特征进行行人再识别,提高了再识别精度和特征提取效率。
-
公开(公告)号:CN109886090A
公开(公告)日:2019-06-14
申请号:CN201910013082.6
申请日:2019-01-07
Applicant: 北京大学
Abstract: 一种基于多时间尺度卷积神经网络的视频行人再识别方法,包括:利用多时间尺度卷积神经网络模型处理视频,获得具有空间特征和多尺度时间特征的第一输出,其中,所述多时间尺度卷积神经网络由在空间卷积神经网络中插入多尺度的3D卷积层和残差注意力层获得;利用空间卷积神经网络模型处理所述视频,获得具有空间特征的第二输出;将所述第一输出和所述第二输出进行融合;根据融合结果,对所述视频中的行人进行步态识别和/或空间特征识别。本发明实现了对视频中行人的空间特征(衣着)以及步态的识别,具有更高的识别率。与2D神经网络相比,获取了多尺度的时间线索;与3D神经网路相比,引入的参数容量更小,在相同系统中的运行速度更快。
-
公开(公告)号:CN111563404A
公开(公告)日:2020-08-21
申请号:CN201911422601.0
申请日:2019-12-31
Applicant: 北京大学
Abstract: 本发明提出了一种适用于基于视频的行人再识别的全局局部时间表示方法。本申请提出的网络分别由DTP卷积和TSA模型组成。DTP由并行扩展的时间卷积组成,用于模拟相邻帧之间的短期时间线索。TSA利用非连续帧之间的关系来捕获全局时间线索。在五个基准数据集上的实验结果表明,所提出的GLTR方法优于目前最先进的方法。
-
公开(公告)号:CN112052722A
公开(公告)日:2020-12-08
申请号:CN202010707102.2
申请日:2020-07-21
Applicant: 北京大学
Abstract: 本申请公开了一种行人身份再识别方法及存储介质,该方法包括:对图像识别神经网络模型进行调整;检测调整后的图像识别神经网络模型的识别准确度;根据所述识别准确度判断所述图像识别神经网络模型是否训练完成;若是,则利用训练完成的图像识别神经网络模型针对行人图像进行身份再识别处理;若否,则转向所述对图像识别神经网络模型进行调整。本申请实施例提供的行人身份再识别方法,兼顾视觉相似性和时间一致性,实现无监督行人身份再识别,具有更强的鲁棒性和更好的性能,可以用于无标记信息的情况下提取具有高判别力和高鲁棒性的行人特征,可应用于行人的准确检索与匹配。
-
公开(公告)号:CN107977656A
公开(公告)日:2018-05-01
申请号:CN201711435514.X
申请日:2017-12-26
Applicant: 北京大学
Abstract: 本发明提供了一种行人重识别方法及系统,基于行人姿态归一化与时间金字塔池化,包括如下步骤:接收视频图像序列,通过空间二维仿射变换完成所述视频图像序列的空间对齐;提取经过二维仿射变换后所述视频图像序列内多个帧的全局特征;使用时间金字塔池化算法,融合所述视频图像序列中多个帧的全局特征,以获得等长的序列级别的图像特征。与传统方法相比,在多个基于视频的行人再识别数据集上,本发明的识别准确率超过了多个最新的方法,且具有更低的算法复杂度。
-
公开(公告)号:CN111563404B
公开(公告)日:2023-05-26
申请号:CN201911422601.0
申请日:2019-12-31
Applicant: 北京大学
IPC: G06V40/20 , G06V20/40 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种适用于基于视频的行人再识别的全局局部时间表示方法。本申请提出的网络分别由DTP卷积和TSA模型组成。DTP由并行扩展的时间卷积组成,用于模拟相邻帧之间的短期时间线索。TSA利用非连续帧之间的关系来捕获全局时间线索。在五个基准数据集上的实验结果表明,所提出的GLTR方法优于目前最先进的方法。
-
公开(公告)号:CN107729805B
公开(公告)日:2019-09-13
申请号:CN201710780179.0
申请日:2017-09-01
Applicant: 北京大学
Abstract: 本发明公开了用于行人再识别的神经网络和基于深度学习的行人再识别算法。该神经网络包括:使用行人的原始全身图像作为第一输入并输出第一识别特征的第一神经网络;使用从行人的原始全身图像提取的人体部位图像的仿射变换图像作为第二输入并输出第二识别特征的第二神经网络,其中,人体部位至少包括头部、躯干和四肢,第一识别特征和第二识别特征组合为总识别特征。具有更加鲁棒的行人特征匹配能力,从而能够提高正确识别率和/或降低误识率。
-
公开(公告)号:CN107729805A
公开(公告)日:2018-02-23
申请号:CN201710780179.0
申请日:2017-09-01
Applicant: 北京大学
Abstract: 本发明公开了用于行人再识别的神经网络和基于深度学习的行人再识别算法。该神经网络包括:使用行人的原始全身图像作为第一输入并输出第一识别特征的第一神经网络;使用从行人的原始全身图像提取的人体部位图像的仿射变换图像作为第二输入并输出第二识别特征的第二神经网络,其中,人体部位至少包括头部、躯干和四肢,第一识别特征和第二识别特征组合为总识别特征。具有更加鲁棒的行人特征匹配能力,从而能够提高正确识别率和/或降低误识率。
-
-
-
-
-
-
-
-