-
公开(公告)号:CN107967441A
公开(公告)日:2018-04-27
申请号:CN201710845449.1
申请日:2017-09-19
Applicant: 北京工业大学
CPC classification number: G06K9/00375 , G06N3/0472 , G06N3/08 , G06T5/20
Abstract: 本发明公开一种基于双通道3D-2DRBM模型的视频行为识别方法,提出了3D张量到2D矩阵变量的受限玻尔兹曼机,即输入为3阶张量变量,输出为2阶矩阵变量的RBM,称其为3D-2D RBM;该模型解决了前两个模型在处理3D视频数据上的劣势,也更好地保存了3D视频数据的时空信息,可以得到了较好的动态手势识别率。
-
公开(公告)号:CN106991372B
公开(公告)日:2020-08-28
申请号:CN201710120922.X
申请日:2017-03-02
Applicant: 北京工业大学
Abstract: 本发明公开一种基于混合深度学习模型的动态手势识别方法包括:训练阶段,首先基于构成手势视频的图像集训练CNN,然后利用训练好的CNN逐帧提取动态手势视频序列每帧的空间特征;对待识别的每个手势视频序列,将CNN学习到的各帧级特征按时间顺序组织成矩阵;把该矩阵输入到MVRBM以学习融合时空属性的手势动作时空特征;引入具有判别性的NN;即把MVRBM看作NN模型参数的预训练过程,把MVRBM学到的网络权值和偏置作为NN的权值和偏置的初值,并通过反向传播算法微调NN权值和偏置;测试阶段,同样基于CNN逐帧提取动态手势视频序列每帧特征并拼接,输入前述训练好的NN进行手势识。采用本发明的技术方案,实现对3D动态手势视频序列的有效时空表示。
-
公开(公告)号:CN106991372A
公开(公告)日:2017-07-28
申请号:CN201710120922.X
申请日:2017-03-02
Applicant: 北京工业大学
Abstract: 本发明公开一种基于混合深度学习模型的动态手势识别方法包括:训练阶段,首先基于构成手势视频的图像集训练CNN,然后利用训练好的CNN逐帧提取动态手势视频序列每帧的空间特征;对待识别的每个手势视频序列,将CNN学习到的各帧级特征按时间顺序组织成矩阵;把该矩阵输入到MVRBM以学习融合时空属性的手势动作时空特征;引入具有判别性的NN;即把MVRBM看作NN模型参数的预训练过程,把MVRBM学到的网络权值和偏置作为NN的权值和偏置的初值,并通过反向传播算法微调NN权值和偏置;测试阶段,同样基于CNN逐帧提取动态手势视频序列每帧特征并拼接,输入前述训练好的NN进行手势识。采用本发明的技术方案,实现对3D动态手势视频序列的有效时空表示。
-
公开(公告)号:CN107967441B
公开(公告)日:2021-03-30
申请号:CN201710845449.1
申请日:2017-09-19
Applicant: 北京工业大学
Abstract: 本发明公开一种基于双通道3D‑2DRBM模型的视频行为识别方法,提出了3D张量到2D矩阵变量的受限玻尔兹曼机,即输入为3阶张量变量,输出为2阶矩阵变量的RBM,称其为3D‑2D RBM;该模型解决了前两个模型在处理3D视频数据上的劣势,也更好地保存了3D视频数据的时空信息,可以得到了较好的动态手势识别率。
-
-
-