一种基于3D关节点序列的人体行为识别方法

    公开(公告)号:CN108564047B

    公开(公告)日:2021-09-10

    申请号:CN201810352501.4

    申请日:2018-04-19

    Abstract: 本发明公开一种基于3D关节点序列的行为识别方法,对给定的人体运动序列,包括以下步骤:步骤1、提取基于运动引导的关节点帧内偏移和帧间偏移;步骤2、通过偏移特征集合的聚类中心将其转换为由“视觉单词”组成的码本,并聚集所有的码本与偏移向量的差获得一个高维的特征向量;步骤3、基于融合特征分析模型的监督哈希映射生成哈希编码,并采用K最近邻进行分类。

    一种基于零样本学习的人体行为识别方法

    公开(公告)号:CN111126218A

    公开(公告)日:2020-05-08

    申请号:CN201911288489.6

    申请日:2019-12-12

    Abstract: 公开一种基于零样本学习的人体行为识别方法,其提高了所训练分类器的分类性能和准确率,推进了人体行为类别自动标注目标的实现。该方法包括:(1)基于动作类与动作关联物体构造知识图谱,并通过基于注意力机制的图卷积网络AMGCN动态更新其关系,旨在更好地描述图中节点的关系;(2)学习基于梯度惩罚和循环一致性约束的生成对抗网络WGAN-GCC,使得学习的生成器能够更好地生成未知类特征;(3)将图卷积网络和生成对抗网络两个网络结合为双流深度神经网络,使得训练的分类器更具判别性。

    一种人体运动序列关键帧提取方法

    公开(公告)号:CN108520250A

    公开(公告)日:2018-09-11

    申请号:CN201810352496.7

    申请日:2018-04-19

    Abstract: 本发明公开一种人体运动序列关键帧提取的方法,对给定的人体运动序列,首先计算每一帧各关节点与其它关节点的位置偏移矢量作为相应关节点的特征,然后,根据人体运动先验知识以关节点组合的形式定义关节点团,由关节点团的特征组合实现运动帧的特征表示,同时定义基于关节点团特征表示的人体运动帧间相似度度量模型;最后,在此模型基础上使用仿射传播的聚类算法实现数据自适应的人体运动序列关键帧提取。

    一种人体运动序列关键帧提取方法

    公开(公告)号:CN108520250B

    公开(公告)日:2021-09-14

    申请号:CN201810352496.7

    申请日:2018-04-19

    Abstract: 本发明公开一种人体运动序列关键帧提取的方法,对给定的人体运动序列,首先计算每一帧各关节点与其它关节点的位置偏移矢量作为相应关节点的特征,然后,根据人体运动先验知识以关节点组合的形式定义关节点团,由关节点团的特征组合实现运动帧的特征表示,同时定义基于关节点团特征表示的人体运动帧间相似度度量模型;最后,在此模型基础上使用仿射传播的聚类算法实现数据自适应的人体运动序列关键帧提取。

    一种多视角的人体行为识别方法

    公开(公告)号:CN109977787A

    公开(公告)日:2019-07-05

    申请号:CN201910156308.8

    申请日:2019-03-01

    Abstract: 公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。

    一种基于3D关节点序列的人体行为识别方法

    公开(公告)号:CN108564047A

    公开(公告)日:2018-09-21

    申请号:CN201810352501.4

    申请日:2018-04-19

    Abstract: 本发明公开一种基于3D关节点序列的人体行为识别方法,对给定的人体运动序列,包括以下步骤:步骤1、提取基于运动引导的关节点帧内偏移和帧间偏移;步骤2、通过偏移特征集合的聚类中心将其转换为由“视觉单词”组成的码本,并聚集所有的码本与偏移向量的差获得一个高维的特征向量;步骤3、基于融合特征分析模型的监督哈希映射生成哈希编码,并采用K最近邻进行分类。

    一种多视角的人体行为识别方法

    公开(公告)号:CN109977787B

    公开(公告)日:2021-03-02

    申请号:CN201910156308.8

    申请日:2019-03-01

    Abstract: 公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。

    一种基于部位聚类特征的人体行为识别方法

    公开(公告)号:CN106909890B

    公开(公告)日:2020-02-11

    申请号:CN201710057722.4

    申请日:2017-01-23

    Abstract: 本发明公开一种基于部位聚类特征的人体行为识别方法,包括:步骤1、在训练阶段,首先通过姿态估计提取训练视频每一帧的部位聚类特征点,之后计算每一帧每一个特征点的局部位置偏移和全局位置偏移;然后收集所有训练视频的特征点偏移量信息,并使用K‑means聚类算法对偏移量信息进行聚类,得到聚类中心,即形成码本,然后根据码本用一组关节特征点的直方图来表示当前的训练视频;步骤2、在测试阶段,对一个测试视频,首先通过上述训练阶段构成的码本建立直方图,之后通过朴素贝叶斯最近邻分类方法比较测试阶段直方图与训练阶段的直方图的差异进行行为识别。采用本发明的技术方案,具有很高的识别率。

    一种基于部位聚类特征的人体行为识别方法

    公开(公告)号:CN106909890A

    公开(公告)日:2017-06-30

    申请号:CN201710057722.4

    申请日:2017-01-23

    Abstract: 本发明公开一种基于部位聚类特征的人体行为识别方法,包括:步骤1、在训练阶段,首先通过姿态估计提取训练视频每一帧的部位聚类特征点,之后计算每一帧每一个特征点的局部位置偏移和全局位置偏移;然后收集所有训练视频的特征点偏移量信息,并使用K‑means聚类算法对偏移量信息进行聚类,得到聚类中心,即形成码本,然后根据码本用一组关节特征点的直方图来表示当前的训练视频;步骤2、在测试阶段,对一个测试视频,首先通过上述训练阶段构成的码本建立直方图,之后通过朴素贝叶斯最近邻分类方法比较测试阶段直方图与训练阶段的直方图的差异进行行为识别。采用本发明的技术方案,具有很高的识别率。

Patent Agency Ranking