-
公开(公告)号:CN108564643B
公开(公告)日:2021-01-12
申请号:CN201810217937.2
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于UE引擎的表演捕捉系统,旨在解决在同时捕捉动作与表情数据,生成角色动作与表情动画中,表情表演与动作表演的干扰问题,该系统包括:面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据该面部图像数据,确定目标对象的眼球旋转参数,并利用预设的基础表情库确定该目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于目标对象肢体的传感设备获取该目标对象的动作参数;动画生成单元,配置为根据上述基础表情权重、上述眼球旋转参数和上述动作参数确定虚拟角色的表情动画。本发明实现了表演者动作和表情的捕捉,并根据动作和表情数据赋予虚拟角色真实合理的动作与生动的表情。
-
公开(公告)号:CN108564642A
公开(公告)日:2018-09-21
申请号:CN201810217894.8
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及图像处理领域,提出了一种基于UE引擎的无标记表演捕捉系统,旨在解决同时捕捉表演者的动作与表情以生成角色动画方法中,标记点对表演者造成侵入感,使表演受到干扰的问题。该系统包括:面部表演捕捉模块,配置为采集表演者的面部图像数据,并根据上述面部图像数据计算上述表演者的面部表情的权重参数;动作表演捕捉模块,配置为采集上述表演者的骨骼图像数据,并根据上述骨骼图像数据确定上述表演者的人体姿态参数;动画生成模块,配置为根据上述面部表情的权重参数和上述人体姿态参数,利用UE图形程序生成角色3D模型的动作和表情。本发明实现了表演者动作和表情的捕捉,并根据动作和表情数据赋予虚拟角色真实合理的动作与生动的表情。
-
公开(公告)号:CN108564641A
公开(公告)日:2018-09-21
申请号:CN201810217893.3
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于UE引擎的表情捕捉方法及装置。旨在解决现有技术根据捕捉到的面部表情数据输出表情动画格式不通用的问题。本发明提供一种基于UE引擎的表情捕捉方法,包括根据预先构建的基础表情模型识别用户表情;计算用户表情的表情权重参数,并将其转换为预先构建的虚拟角色的表情权重参数;将虚拟角色的表情权重参数输入UE虚拟引擎,UE虚拟引擎渲染输出虚拟角色的表情。本发明的UE虚拟引擎能够通过预先设置的表情转换对应关系输出虚拟角色的表情,从而可以实现实时编辑面部表情动画,为后期开发制作提供了便利。
-
公开(公告)号:CN108596948A
公开(公告)日:2018-09-28
申请号:CN201810232468.1
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于深度相机识别人体头部姿态的方法及装置。旨在解决现有技术头部姿态估计方法实时性、适应性、鲁棒性差的问题。本发明提供一种基于深度相机识别人体头部姿态的方法,包括基于深度相机的相机参数将深度相机获取的头部深度图像转化为空间点云数据;将空间点云数据所在的空间划分为多个子空间,若子空间包含的空间点云数据的个数大于预设阈值,则将子空间的中心点作为标准点云数据;计算标准点云数据与预先构建的头部模型的拟合误差,得到人体头部的姿态参数。本发明的技术方案能够增加估计人体头部姿态的适应性,提高实时性和鲁棒性。
-
公开(公告)号:CN108572731A
公开(公告)日:2018-09-25
申请号:CN201810217885.9
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于多Kinect和UE4动捕数据表现方方法和装置,旨在解决kinect的动作捕捉数据的动画展现中出现的捕捉范围有限、模型骨架结构,关节点数量受限制的问题。该方法的具体实施方式包括:接收多台kinect捕捉的骨架数据,根据预设的坐标转换矩阵,对上述人体骨架数据进行校准,得到各人体骨架数据在参考坐标系下的坐标数据,并作为参考骨架数据;经加权平均处理得到人物的平均骨架;通过预设的映射关系将上述平均骨架转换为UE4图形程序中对应角色模型的角色模型数据;根据角色模型数据,使用UE4引擎进行骨骼动画的展示。本发明在对人体骨架动画展示过程中,扩大了捕捉范围,且对UE4中的3D模型的骨架结构,关节点数量等不做限制。
-
公开(公告)号:CN107563295A
公开(公告)日:2018-01-09
申请号:CN201710656830.3
申请日:2017-08-03
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于多Kinect的全方位人体追踪方法和设备,旨在解决人体在受到遮挡的环境中,或部分相机角度不佳等原因造成的信息缺失而无法获取完整运动信息的问题。该方法的具体实施方式包括:接收终端设备所发送的人体骨架的骨架数据;匹配该骨架数据,根据匹配结果将属于同一人的骨架数据分为一组;根据该骨架数据和该骨架数据所对应人体骨架的历史数据确定出各人体骨架的骨架图像为正面或为反面,并对所确定的骨架图像进行翻转处理;对所确定的骨架图像进行惯性处理,确定该人体骨架的位置和运动姿势。该实施方式实现了对人体骨架稳定连续的追踪。
-
公开(公告)号:CN107563295B
公开(公告)日:2020-07-28
申请号:CN201710656830.3
申请日:2017-08-03
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于多Kinect的全方位人体追踪方法和设备,旨在解决人体在受到遮挡的环境中,或部分相机角度不佳等原因造成的信息缺失而无法获取完整运动信息的问题。该方法的具体实施方式包括:接收终端设备所发送的人体骨架的骨架数据;匹配该骨架数据,根据匹配结果将属于同一人的骨架数据分为一组;根据该骨架数据和该骨架数据所对应人体骨架的历史数据确定出各人体骨架的骨架图像为正面或为反面,并对所确定的骨架图像进行翻转处理;对所确定的骨架图像进行惯性处理,确定该人体骨架的位置和运动姿势。该实施方式实现了对人体骨架稳定连续的追踪。
-
公开(公告)号:CN108564643A
公开(公告)日:2018-09-21
申请号:CN201810217937.2
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形处理领域,提出了一种基于UE引擎的表演捕捉系统,旨在解决在同时捕捉动作与表情数据,生成角色动作与表情动画中,表情表演与动作表演的干扰问题,该系统包括:面部表演捕捉单元,配置为获取目标对象的面部图像数据,并根据该面部图像数据,确定目标对象的眼球旋转参数,并利用预设的基础表情库确定该目标对象的基础表情权重;动作表演捕捉单元,配置为利用绑缚于目标对象肢体的传感设备获取该目标对象的动作参数;动画生成单元,配置为根据上述基础表情权重、上述眼球旋转参数和上述动作参数确定虚拟角色的表情动画。本发明实现了表演者动作和表情的捕捉,并根据动作和表情数据赋予虚拟角色真实合理的动作与生动的表情。
-
公开(公告)号:CN108564641B
公开(公告)日:2020-09-25
申请号:CN201810217893.3
申请日:2018-03-16
Applicant: 中国科学院自动化研究所
Abstract: 本发明属于计算机视觉技术领域,具体涉及一种基于UE引擎的表情捕捉方法及装置。旨在解决现有技术根据捕捉到的面部表情数据输出表情动画格式不通用的问题。本发明提供一种基于UE引擎的表情捕捉方法,包括根据预先构建的基础表情模型识别用户表情;计算用户表情的表情权重参数,并将其转换为预先构建的虚拟角色的表情权重参数;将虚拟角色的表情权重参数输入UE虚拟引擎,UE虚拟引擎渲染输出虚拟角色的表情。本发明的UE虚拟引擎能够通过预先设置的表情转换对应关系输出虚拟角色的表情,从而可以实现实时编辑面部表情动画,为后期开发制作提供了便利。
-
公开(公告)号:CN107577451B
公开(公告)日:2020-06-12
申请号:CN201710657342.4
申请日:2017-08-03
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及计算机图形视觉领域,提出一种多Kinect人体骨架坐标变换方法,旨在解决人体追踪环境中多个Kinect之间坐标变换的问题。该方法包括:接收各终端设备所发送的同一人体的多帧骨架数据,确定各终端设备的人体骨架的加权平均骨架数据;计算各终端设备数据的可信度,确定可信度最高的终端设备为参考终端设备、参考终端设备的坐标系为参考坐标系;根据人体骨架在参考坐标系下的坐标和在非参考坐标系下的坐标确定参考坐标系与非参考坐标系之间的欧拉角和平移变量;根据欧拉角和平移变量确定参考坐标系与非参考坐标系之间的变换矩阵;利用上述变换矩阵将各终端设备的骨架数据转换到参考坐标系下。该方法实现了对多Kinect的人体骨架之间的坐标连续稳定的变换。
-
-
-
-
-
-
-
-
-