基于模糊边界分片的深度动作图人体行为识别方法

    公开(公告)号:CN106529441A

    公开(公告)日:2017-03-22

    申请号:CN201610949051.8

    申请日:2016-10-26

    Applicant: 江南大学

    CPC classification number: G06K9/6267 G06K9/00335 G06K9/6256

    Abstract: 本发明公开了一种基于模糊边界分片的深度动作图人体行为识别方法。模型训练方法包括以下步骤:将视频深度图序列分片并根据模糊参数α确定分片的模糊边界;对于每一个分片后的子序列分别计算它们主视图、左视图和俯视图的深度动作图DMM;利用插值法将这些深度动作图转换为固定的尺寸并归一化;将归一化后的每个视频序列子序列的深度动作图DMM串联,获得该视频序列的特征向量;采用概率协作表示分类器R-ProCRC对特征进行分类,最终实现人体行为识别。本发明公开的人体行为识别方法,有效捕获了时域特征的变化规律,增强了行为特征对时域差异的抗干扰能力,能够实现对人体行为的鲁棒识别。

    基于自适应选择机制的稀疏联合模型目标跟踪方法

    公开(公告)号:CN107203747A

    公开(公告)日:2017-09-26

    申请号:CN201710347548.7

    申请日:2017-05-17

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于自适应选择机制的稀疏联合模型目标跟踪方法。构造稀疏的判决模型时,利用特征选择机制提取更具辨识力的特征,并以置信值度量为约束,更好地区分出目标和背景;构造稀疏的生成模型时,结合L1正则化和PCA子空间重构思想,使得目标不仅保留充足外观信息,且可有效抵御离群子干扰,并提出一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解。相较于传统的乘性联合机制,本发明提出了一种基于欧式距离的自适应选择机制,通过分别比较上述两种模型的预测结果与前一帧的跟踪结果的差异,计算偏差,判断模型是否发生退化,并以此构建出更加合理的联合模型评估函数来提升跟踪精度。

    基于自适应选择机制的稀疏联合模型目标跟踪方法

    公开(公告)号:CN107203747B

    公开(公告)日:2021-01-08

    申请号:CN201710347548.7

    申请日:2017-05-17

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于自适应选择机制的稀疏联合模型目标跟踪方法。构造稀疏的判决模型时,利用特征选择机制提取更具辨识力的特征,并以置信值度量为约束,更好地区分出目标和背景;构造稀疏的生成模型时,结合L1正则化和PCA子空间重构思想,使得目标不仅保留充足外观信息,且可有效抵御离群子干扰,并提出一种结合线性回归和软阈值算子的迭代算法对目标函数进行最小化求解。相较于传统的乘性联合机制,本发明提出了一种基于欧式距离的自适应选择机制,通过分别比较上述两种模型的预测结果与前一帧的跟踪结果的差异,计算偏差,判断模型是否发生退化,并以此构建出更加合理的联合模型评估函数来提升跟踪精度。

    基于模糊边界分片的深度动作图人体行为识别方法

    公开(公告)号:CN106529441B

    公开(公告)日:2019-04-05

    申请号:CN201610949051.8

    申请日:2016-10-26

    Applicant: 江南大学

    Abstract: 本发明公开了一种基于模糊边界分片的深度动作图人体行为识别方法。模型训练方法包括以下步骤:将视频深度图序列分片并根据模糊参数α确定分片的模糊边界;对于每一个分片后的子序列分别计算它们主视图、左视图和俯视图的深度动作图DMM;利用插值法将这些深度动作图转换为固定的尺寸并归一化;将归一化后的每个视频序列子序列的深度动作图DMM串联,获得该视频序列的特征向量;采用概率协作表示分类器R‑ProCRC对特征进行分类,最终实现人体行为识别。本发明公开的人体行为识别方法,有效捕获了时域特征的变化规律,增强了行为特征对时域差异的抗干扰能力,能够实现对人体行为的鲁棒识别。

Patent Agency Ranking