一种基于视频输入的获取隔空手势轨迹的方法

    公开(公告)号:CN104881119B

    公开(公告)日:2017-05-17

    申请号:CN201510279504.6

    申请日:2015-05-27

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种基于视频输入的获取隔空手势轨迹的方法,属于计算机人机交互界面领域。所述方法包括:(1)输入总帧数m,用摄像头捕获n帧图像的数字序列,并且放到n帧摄像头捕获的图像数据pBG Buffer[n]中;(2)获取对应手势运动轨迹的白点的坐标集合白点数;(3)获取每一帧手势的坐标值X,Y;(4)判断帧数n>=m,如果是,则根据(2)利用B样条画出轨迹,然后转入步骤(5);否则,返回到(1)继续执行;(5)结束。

    基于融合特征和时空连续性判定规则的CME检测方法

    公开(公告)号:CN106127754A

    公开(公告)日:2016-11-16

    申请号:CN201610450612.X

    申请日:2016-06-21

    Applicant: 济南大学

    CPC classification number: G06T2207/10016 G06T2207/20081

    Abstract: 本发明提供了一种基于融合特征和时空连续性判定规则的CME检测方法,该方法结合CME事件连续两帧之间的时空连续性,根据图像的灰度统计特征和纹理特征利用基于ELM的分类器对日冕观测图像进行识别,检测图像中是否存在CME。本发明的有益效果是:本发明建立了多特征融合CME检测模型,避免了根据单一特征检测CME的误差,同时也避免了日冕观测图像中的噪声部分和CME发生区域发生混淆造成的误判,检测准确度高,检测效率高。

    一种手势识别方法
    243.
    发明公开

    公开(公告)号:CN105930784A

    公开(公告)日:2016-09-07

    申请号:CN201610236699.0

    申请日:2016-04-15

    Applicant: 济南大学

    Inventor: 冯志全 周晓燕

    CPC classification number: G06K9/00355 G06K9/00389

    Abstract: 本发明提供了一种手势识别方法,属于体感互动领域。该手势识别方法包括:S1,基于Kinect的手势分割:通过kinect获得深度图像和RGB彩色图像,从图像中分割出人手,得到手势模型;S2,提取手势模型的特征参数:使用基于二值图像的密度分布特征的方法和手指个数检测的方法来提取手势模型的特征参数;S3,与事先建立好的模板库中的手势进行匹配,最终选择出最接近的手势即为识别出的手势。本发明方法提高了手势识别效率。

    一种改变三维手势状态的方法

    公开(公告)号:CN104914996B

    公开(公告)日:2016-08-17

    申请号:CN201510267847.0

    申请日:2015-05-22

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种改变三维手势状态的方法,属于计算机视觉领域。所述方法包括:第1步:建立三维手势数据库;第2步:用户手势进入摄像机场景,识别出用户手势,从数据库中得到与用户手势对应的三维手势模型;第3步:首先计算用户手势的运动向量V,然后,计算机把与手势的运动向量V相反的向量?V施加于三维手势模型,使得该三维手势模型同时沿着与用户手势运动相反的方向运动;判断用户手势与三维手势模型是否相同,如果是,则进入第4步,如果否,则返回第3步;第4步:返回三维手势模型有关参数,即完成三维手势模型的初始化。

    一种图像处理方法
    245.
    发明授权

    公开(公告)号:CN104850233B

    公开(公告)日:2016-04-06

    申请号:CN201510279425.5

    申请日:2015-05-27

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种图像处理,属于计算机人机交互界面领域。该方法包括:(1)利用摄像头输入用户手势图像,设定窗口尺寸,将脸部框出来并保存脸框的信息,即脸框的左上角的位置、高和宽;(2)根据步骤(1)保存的脸框的左上角的位置、高和宽,将窗口中的脸框位置的图像置成背景色;(3)通过肤色模型判断肤色点和非肤色点;(4)根据所述脸框在窗口中的信息,依次扫描窗口,分别找出脸框的像素点对应的小窗口;(5)对小窗口进行去噪,消除非肤色的影响;(6)获取所述小窗口的质心;(7)根据质心和小窗口的信息,得到这个小窗口的正方小窗口的半边长;(8)再次缩小小窗口:根据步骤(7)得到的正方小窗口的半边长,获得新的正方小窗口。

    一种三维虚拟手势选择场景物体的方法

    公开(公告)号:CN103472923B

    公开(公告)日:2016-04-06

    申请号:CN201310445376.9

    申请日:2013-09-23

    Applicant: 济南大学

    Inventor: 冯志全 张廷芳

    Abstract: 本发明公开了一种三维虚拟手势选择场景物体的方法,包括如下步骤:(1)建立三维手势模型库;其特征在于,还包括如下步骤:(2)确定所放物体的桌面方程;(3)初始化时刻T=0;(4)预测三维手势的运动轨迹,利用三维手势T和T+1时刻的位置信息HT和HT+1,预测一条直线l:(5)初步选定待选的物体集C1;(6)最终确定待选的物体集C2;(7)显示待选的物体,将集合C2中的候选物体进行高光显示;(8)对待选的物体进行碰撞检测,依次对物体集C2每个候选物体进行碰撞检测,若碰撞检测成功,则结束,否则,T=T+1,T为时刻,转步骤(4)。本发明实现三维手势准确选择场景内的物体。

    一种基于深度信念网络的人体肤色区域分割方法

    公开(公告)号:CN105138975A

    公开(公告)日:2015-12-09

    申请号:CN201510497519.X

    申请日:2015-08-13

    Applicant: 济南大学

    CPC classification number: G06K9/00234 G06K9/00288

    Abstract: 本发明提供了一种基于深度信念网络的人体肤色区域分割方法,属于计算机视觉和图像处理领域。该方法包括:(1).建立肤色块数据集和非肤色块数据集;(2).产生不同的颜色空间及其组合上的深度信念网络输入特征集;(3).训练不同尺度的深度信念网络,并优化确定各项参数;(4).输入测试图像,在不同尺度约束下,使用滑动窗口策略获取当前待检测图像块范围;(5).在当前滑动窗口确定的图像块上抽取需要的颜色空间分量或其组合,获取输入特征向量;(6).将输入特征向量输入训练好的深度信念网络,得到图像块的分类结果,如果分类结果为肤色块,则块内像素点置1;如果分类结果为非肤色块,则块内像素点置0。

    基于多手势与语义之间柔性映射的手势操控方法

    公开(公告)号:CN105138949A

    公开(公告)日:2015-12-09

    申请号:CN201510394354.3

    申请日:2015-07-07

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    CPC classification number: G06K9/00355

    Abstract: 本发明提供了一种基于多手势与语义之间柔性映射的手势操控方法,首先筛选出操作者可能的交互意图,再结合交互上下文信息,进一步把操作者的手势语义压缩到更小的语义集合。其次,利用SSFBM特征,找到替代手势,进一步锁定操作者手势语义。本发明的有益效果是:能够实现多个手势表达一个语义,减少了需要定义的手势命令数量,从而让用户不记忆或尽量少记忆手势命令就可以完成手势命令交互,可以自然地完成交互任务而不受记忆大量手势命令的困扰,不会因为操作者的误操作而中断从而影响交互的流畅性,极大减轻了给用户带来的认知负荷和操作负荷。

    一种面向三维交互界面的手势速度估计方法

    公开(公告)号:CN104156063B

    公开(公告)日:2015-09-09

    申请号:CN201410334029.3

    申请日:2014-07-14

    Applicant: 济南大学

    Inventor: 冯志全 黄忠柱

    Abstract: 本发明的一种面向三维交互界面的手势速度估计方法,为体现用户不同运动速度,首先利用数据手套确立手势速度与手势图像变化之间的基本关系;其次根据这种关系,分阶段建立速度估计模型;最后通过手势图像估计人手运动参数,得到实时的人手运动速度,使三维虚拟手势速度与实际人手运动速度保持一致。本发明的有益效果是:本发明与基于行为模型的手势跟踪算法相比较,平均运行时间降低了26%;在不同的运动速度下,本发明跟踪精度与数据手套对比,总体误差为10%。本发明提出的模型已经用于三维手势交互界面,通过对原型系统的测试表明,具有良好的用户体验。

    一种基于视频输入的获取隔空手势轨迹的方法

    公开(公告)号:CN104881119A

    公开(公告)日:2015-09-02

    申请号:CN201510279504.6

    申请日:2015-05-27

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种基于视频输入的获取隔空手势轨迹的方法,属于计算机人机交互界面领域。所述方法包括:(1)输入总帧数m,用摄像头捕获n帧图像的数字序列,并且放到n帧摄像头捕获的图像数据pBG Buffer[n]中;(2)获取对应手势运动轨迹的白点的坐标集合白点数;(3)获取每一帧手势的坐标值X,Y;(4)判断帧数n>=m,如果是,则根据(2)利用B样条画出轨迹,然后转入步骤(5);否则,返回到(1)继续执行;(5)结束。

Patent Agency Ranking