一种基于手势关键点的动态手势识别方法

    公开(公告)号:CN107679512A

    公开(公告)日:2018-02-09

    申请号:CN201710983280.6

    申请日:2017-10-20

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于手势关键点的动态手势识别方法,属于计算机手势识别领域。其特征在于:所述方法通过逆时针获取人手的轮廓点坐标,进而确定手指指尖和指根的位置,根据指尖和指根的运动方向、距离和角度来识别常用的动态手势;所述动态手势包括:抓取,释放,平移,顺时针旋转,逆时针旋转以及前推。本发明提出了一种基于指尖的位置,距离和方向的动态手势识别算法。它可以避免内腔的手势和外部噪声的识别冲击。经过大量实验,本发明可以识别抓握,放置,顺时针旋转,逆时针旋转,以及四个方向的平移和向前推动态手势识别率为96%。

    一种基于场景态势感知的人机交互方法

    公开(公告)号:CN105929947A

    公开(公告)日:2016-09-07

    申请号:CN201610237410.7

    申请日:2016-04-15

    Applicant: 济南大学

    CPC classification number: G06F3/017 G06K9/00355

    Abstract: 本发明提供了一种基于场景态势感知的人机交互方法,属于人机交互领域。该基于场景态势感知的人机交互方法利用最小二乘法拟合平行线束,判断在平行线束内的物体距离直线的距离,根据该物体与虚拟手的距离来判断用户的操作意图,并且采用包围盒大小实现控制Z变量在合适的范围内变化,最终实现相向互动。本发明提出的基于包围盒大小来控制Z变量变化,得到很好的效果;在用户有目的的移动的情况下,拟合直线束预测用户想要操作的物体的正确率达87%以上。

    一种三维人机交互方法
    3.
    发明公开

    公开(公告)号:CN105929944A

    公开(公告)日:2016-09-07

    申请号:CN201610236179.X

    申请日:2016-04-15

    Applicant: 济南大学

    CPC classification number: G06F3/017

    Abstract: 本发明提供了一种三维人机交互方法,属于人机交互领域。该方法利用粒子滤波方法跟踪手势,并对手势进行预测得到预测值,然后将预测值与当前值之间的向量延长,求出与功能菜单的交点,根据该交点获得用户意图。该方法减少了用户的记忆负担和操作负担并且在时间开销及精度上有明显的改善,实现了人机交互界面的自然性和高效性。

    一种基于场景态势感知的人机交互方法

    公开(公告)号:CN105929947B

    公开(公告)日:2020-07-28

    申请号:CN201610237410.7

    申请日:2016-04-15

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于场景态势感知的人机交互方法,属于人机交互领域。该基于场景态势感知的人机交互方法利用最小二乘法拟合平行线束,判断在平行线束内的物体距离直线的距离,根据该物体与虚拟手的距离来判断用户的操作意图,并且采用包围盒大小实现控制Z变量在合适的范围内变化,最终实现相向互动。本发明提出的基于包围盒大小来控制Z变量变化,得到很好的效果;在用户有目的的移动的情况下,拟合直线束预测用户想要操作的物体的正确率达87%以上。

    一种三维人机交互方法
    5.
    发明授权

    公开(公告)号:CN105929944B

    公开(公告)日:2017-08-08

    申请号:CN201610236179.X

    申请日:2016-04-15

    Applicant: 济南大学

    Abstract: 本发明提供了一种三维人机交互方法,属于人机交互领域。该方法利用粒子滤波方法跟踪手势,并对手势进行预测得到预测值,然后将预测值与当前值之间的向量延长,求出与功能菜单的交点,根据该交点获得用户意图。该方法减少了用户的记忆负担和操作负担并且在时间开销及精度上有明显的改善,实现了人机交互界面的自然性和高效性。

Patent Agency Ranking