-
公开(公告)号:CN108416322B
公开(公告)日:2019-05-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-
公开(公告)号:CN108416322A
公开(公告)日:2018-08-17
申请号:CN201810256008.2
申请日:2018-03-27
Applicant: 吉林大学
Abstract: 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
-