一种基于深度多示例学习的行人重识别方法

    公开(公告)号:CN110751027A

    公开(公告)日:2020-02-04

    申请号:CN201910848519.8

    申请日:2019-09-09

    Abstract: 本发明公开了一种基于深度多示例学习的行人重识别方法,属于数字图像识别领域,本发明构建的行人重识别模型首先通过CNN获取多张不同尺寸的特征图;然后通过可学习的方式将每一张特征图划分为多个部分,得到深度多示例学习中的示例;最后对负示例进行丢弃后利用正示例对每张特征图生成对应的特征向量,得到不同尺度特征图对应的多个特征向量;根据行人身份对输出的多个特征向量进行分类以对训练模型进行训练;对训练好的行人重识别模型输出的多个特征向量进行加权串接用于测试。本发明结合深度多示例学习思想,采用NetVLAD和GhostVLAD提取图片中的局部特征,提高了网络的抗形变能力,进而提高了行人重识别算法的准确率。

    一种基于深度多示例学习的行人重识别方法

    公开(公告)号:CN110751027B

    公开(公告)日:2022-09-20

    申请号:CN201910848519.8

    申请日:2019-09-09

    Abstract: 本发明公开了一种基于深度多示例学习的行人重识别方法,属于数字图像识别领域,本发明构建的行人重识别模型首先通过CNN获取多张不同尺寸的特征图;然后通过可学习的方式将每一张特征图划分为多个部分,得到深度多示例学习中的示例;最后对负示例进行丢弃后利用正示例对每张特征图生成对应的特征向量,得到不同尺度特征图对应的多个特征向量;根据行人身份对输出的多个特征向量进行分类以对训练模型进行训练;对训练好的行人重识别模型输出的多个特征向量进行加权串接用于测试。本发明结合深度多示例学习思想,采用NetVLAD和GhostVLAD提取图片中的局部特征,提高了网络的抗形变能力,进而提高了行人重识别算法的准确率。

    一种基于串联集成式RMML度量学习的人脸比对方法和系统

    公开(公告)号:CN108898094A

    公开(公告)日:2018-11-27

    申请号:CN201810670839.4

    申请日:2018-06-26

    Abstract: 本发明公开了一种基于串联集成式RMML度量学习的人脸比对方法和系统,包括:特征提取模块,用于对人脸图像训练集和测试样本人脸图像提取特征;L个串联的集成模块,每个集成模块用于将人脸特征集合打乱分组、按组进行RMML度量学习、特征映射后拼接为新的人脸特征集合;度量模块,用于基于RMML度量学习计算第L个集成模块得到的人脸特征集合的距离度量矩阵;比对模块,用于利用距离度量矩阵计算测试样本人脸图像的距离,并根据距离判定人脸图像是否为同一个人。本发明提供的度量学习方法具有闭式解不需求逆,有效提高鲁棒性;通过串联过程的多次线性映射和多次非线性映射,提升度量矩阵的区分能力并避免过拟合,人脸对比准确率更高。

    一种基于多尺度时序图像的实时眨眼检测方法

    公开(公告)号:CN109101881B

    公开(公告)日:2021-08-20

    申请号:CN201810743856.6

    申请日:2018-07-06

    Abstract: 本发明公开了一种基于多尺度时序图像的实时眨眼检测方法,包括:对时序图像中的第一帧图像进行定位得到双眼位置;利用其从第一帧图像中提取人眼图像,得到人眼模板;利用人眼模板初始化人眼追踪器,利用更新后的人眼追踪器追踪时序图像,得到时序人眼图像,并更新人眼追踪器,提取处理后的时序人眼图像的人工描述子,再提取人工描述子的differ特征,并将其和人工描述子串接,得到人眼特征。将人眼特征按照时序编码成眨眼行为特征热图;再将眨眼行为特征热图按行逐条输入LSTM网络,得到多个隐藏状态;最后将多个隐藏状态进行串接得到多尺度时序特征后进行眨眼检测,判断时序图像是否含有眨眼行为。本发明提高了无约束条件下眨眼检测的正确率和稳定性。

    一种基于序列深度图像的人体身份识别方法

    公开(公告)号:CN109190544A

    公开(公告)日:2019-01-11

    申请号:CN201810979031.4

    申请日:2018-08-27

    Abstract: 本发明公开了一种基于序列深度图像的人体身份识别方法,包括:采集人体的序列深度图像,基于序列深度图像使用卷积神经网络和递归神经网络进行人体关节点回归得到人体关节点的坐标位置;利用人体关节点的坐标位置进行计算得到人体体态特征向量,利用静态特征分类器进行识别,得到静态特征的人体身份识别得分;对序列深度图像进行人体运动行为特征提取,利用动态特征分类器进行识别,得到动态特征的人体身份识别得分;将静态特征与动态特征的人体身份识别得分进行加权计算,得到人体身份识别得分,进而得到人体身份识别结果。本发明鲁棒性强、准确率不受应用场景的影响。

    一种基于串联集成式RMML度量学习的人脸比对方法和系统

    公开(公告)号:CN108898094B

    公开(公告)日:2020-06-05

    申请号:CN201810670839.4

    申请日:2018-06-26

    Abstract: 本发明公开了一种基于串联集成式RMML度量学习的人脸比对方法和系统,包括:特征提取模块,用于对人脸图像训练集和测试样本人脸图像提取特征;L个串联的集成模块,每个集成模块用于将人脸特征集合打乱分组、按组进行RMML度量学习、特征映射后拼接为新的人脸特征集合;度量模块,用于基于RMML度量学习计算第L个集成模块得到的人脸特征集合的距离度量矩阵;比对模块,用于利用距离度量矩阵计算测试样本人脸图像的距离,并根据距离判定人脸图像是否为同一个人。本发明提供的度量学习方法具有闭式解不需求逆,有效提高鲁棒性;通过串联过程的多次线性映射和多次非线性映射,提升度量矩阵的区分能力并避免过拟合,人脸对比准确率更高。

    一种基于深度图像的跌倒行为时空域检测方法

    公开(公告)号:CN109886102A

    公开(公告)日:2019-06-14

    申请号:CN201910032206.5

    申请日:2019-01-14

    Abstract: 本发明公开了一种基于深度图像的跌倒行为时空域检测方法,包括:获取深度图像;多时间窗视频序列选取;提取每段深度视频法向量特征;特征融合;动态图编码;行为检测网络进行检测;检测结果处理;记录检测结果;行为检测网络的训练。本发明提出的基于深度图像的跌倒行为时空域检测方法,充分挖掘深度图像特点,通过法向量和深度图的特征融合,动态图编码对特征序列进行编码,经过大量标注数据训练的目标检测网络,以及检测结果进行时间域和空间域的非极大抑制,对跌倒行为进行逐帧检测,保证了本方法具有较高的实时性,准确性,鲁棒性,隐私保护性和实用性。

    一种基于多尺度时序图像的实时眨眼检测方法

    公开(公告)号:CN109101881A

    公开(公告)日:2018-12-28

    申请号:CN201810743856.6

    申请日:2018-07-06

    Abstract: 本发明公开了一种基于多尺度时序图像的实时眨眼检测方法,包括:对时序图像中的第一帧图像进行定位得到双眼位置;利用其从第一帧图像中提取人眼图像,得到人眼模板;利用人眼模板初始化人眼追踪器,利用更新后的人眼追踪器追踪时序图像,得到时序人眼图像,并更新人眼追踪器,提取处理后的时序人眼图像的人工描述子,再提取人工描述子的differ特征,并将其和人工描述子串接,得到人眼特征。将人眼特征按照时序编码成眨眼行为特征热图;再将眨眼行为特征热图按行逐条输入LSTM网络,得到多个隐藏状态;最后将多个隐藏状态进行串接得到多尺度时序特征后进行眨眼检测,判断时序图像是否含有眨眼行为。本发明提高了无约束条件下眨眼检测的正确率和稳定性。

    一种非受限条件下眨眼检测模型及其构建方法和应用

    公开(公告)号:CN110969109B

    公开(公告)日:2023-04-18

    申请号:CN201911171263.8

    申请日:2019-11-26

    Abstract: 本发明公开了一种非受限条件下眨眼检测模型及其构建方法和应用,构建方法包括:获取多个训练样本,每个训练样本包括连续多帧图像及每帧图像的人脸和人眼位置信息;采用训练样本预训练眼部信息挖掘网络;从每帧图像内抠取人脸图片并确定其内人眼中心坐标;采用预训练眼部信息挖掘网络挖掘每张人脸图片的特征信息丰富人眼区域;基于每个训练样本对应的所有上述人眼区域训练眨眼检测网络,得到各训练样本的检测结果;基于当前眨眼检测网络及其对各训练样本的检测结果,采用即时奖励,控制当前眼部信息挖掘网络强化学习,基于新的眼部信息挖掘网络,重复上述,直至达到预设条件。本发明在非受限条件下进行眨眼检测,极大提高了眨眼检测的精度和效率。

    一种基于三维空间时序建模的深度视频人体行为识别方法

    公开(公告)号:CN110852182B

    公开(公告)日:2022-09-20

    申请号:CN201910999089.X

    申请日:2019-10-21

    Abstract: 本发明公开了一种基于三维空间时序建模的深度视频人体行为识别方法,属于数字图像识别领域,包括:逐帧对深度图像中人体位置进行标注;将包含人体行为的深度图像转换为三维空间点云数据;对三维空间点云数据进行不同尺度大小的体素化,得到多尺度三维张量;将同一尺度的三维张量均匀划分为多个时间段,对每个时间段对应的三维张量进行空间时序编码,得到多尺度多时间段的三维张量时空序列;将三维张量时空序列转化为高维空间点云数据并进行随机采样,得到人体行为时空特征;将人体行为时空特征输入训练好的3D目标点云分类模型进行分类,得到行为分类结果。本发明能够充分挖掘深度图像立体信息,实现高效鲁棒的对人体各种行为进行识别。

Patent Agency Ranking