-
公开(公告)号:CN109101872A
公开(公告)日:2018-12-28
申请号:CN201810633829.3
申请日:2018-06-20
Applicant: 济南大学
IPC: G06K9/00
CPC classification number: G06K9/00355
Abstract: 本发明涉及一种3D手势鼠标的生成方法,包括以下步骤,a.视频输入,采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;b.特征提取,对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪;c.特征融合以获得观测模型;d.粒子滤波跟踪,采用的粒子滤波方法过程明细如下:粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a},在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Ast+wt-1实现;在本发明中并给出了粒子滤波算法步骤;e.鼠标位置转换。本发明提出了更加有效的特征,并且进行特征融合,再结合角点检测来达到实时精确的跟踪目的的有益效果。
-
公开(公告)号:CN105915987B
公开(公告)日:2018-07-06
申请号:CN201610237422.X
申请日:2016-04-15
Applicant: 济南大学
IPC: H04N21/422 , H04N21/485 , G06F3/01
Abstract: 本发明提供了一种面向智能电视的隐式交互方法,属于智能电器领域。所述方法包括:实时获取用户体态行为信息,检测用户位置,并检测与识别用户手势动作;同时检测智能电视的功能状态信息,获得低层次的显式交互信息;将处理后的用户体态行为信息与智能电视实时的功能状态信息相结合,建立基于用户行为和智能电视状态的多层次动态上下文推理模型,获得高层次的隐含交互信息;将隐含交互信息可视化,识别用户在可视化隐含信息指导下完成的手势动作,建立显隐信息融合的隐式交互行为模型,完成交互任务。
-
公开(公告)号:CN107766842A
公开(公告)日:2018-03-06
申请号:CN201711101103.7
申请日:2017-11-10
Applicant: 济南大学
Abstract: 本发明提供了一种手势识别方法及其应用,属于智能教学领域。该手势识别方法包括:(1),输入Kinect捕捉的深度图,进行样本序列预处理,获得合成的动态手势训练样本;(2)将合成的动态手势训练样本输入到训练好的深度学习模型中进行识别:训练好的深度学习模型根据分类输出每种分类的识别概率,找到其中最高的识别概率,其对应的分类就是识别的结果。利用本发明方法提高了手势的识别率以及鲁棒性,让老师能够用平常讲课过程中用到的自然手势来给学生上课,而不必重点记忆交互的方法,将有限的精力完全用于教学当中。
-
公开(公告)号:CN107329564A
公开(公告)日:2017-11-07
申请号:CN201710432455.4
申请日:2017-06-09
Applicant: 济南大学
Abstract: 本发明公开了一种基于手势智能感知和人机协同机制的人机猜拳方法。首先将Kinect获得图像序列经过分割、肤色建模提取出人手,然后通过提出的SCDDF识别算法提取手势特征,再与事先建立好的手势库中模板进行匹配,最终识别出用户手势。在此基础上,将虚拟界面运用到人机猜拳游戏中使用户可以更加方便自然地体验人机猜拳游戏的乐趣;结合人机猜拳游戏,本文还提出人机协同机制,使整个游戏更加顺畅自然;在手势识别方面,本文融合DDF算法和性状上下文特征描述子算法,提出SCDDF算法,经实验验证,新的识别算法较之前的DDF算法识别正确率提高了10.8%。
-
公开(公告)号:CN105933714B
公开(公告)日:2017-06-09
申请号:CN201610247833.7
申请日:2016-04-20
Applicant: 济南大学
IPC: H04N19/597 , H04N19/577
Abstract: 本发明公开了一种基于深度引导扩展块匹配的三维视频帧率提升方法,包括:对视频帧进行基于图像块的双向运动估计,利用估计得到的运动向量进行补偿得到初始深度插入帧根据初始深度插入帧,计算插入帧中每个深度图像块的二维结构张量,根据二维结构张量将图像块分成边缘图像块和非边缘图像块;将边缘图像块分成子块,利用基于深度信息引导的扩展块匹配方法估计每个子块的运动向量;以图像块为单位,对非边缘图像块和边缘图像子块进行适应性运动补偿,实现插入帧的重建。本发明有效的解决了三维视频帧率提升中插入帧前景物体边缘模糊的问题。
-
公开(公告)号:CN106341676A
公开(公告)日:2017-01-18
申请号:CN201610865067.0
申请日:2016-09-29
Applicant: 济南大学
IPC: H04N13/00 , H04N19/597
CPC classification number: H04N13/128 , H04N13/161 , H04N19/597
Abstract: 本发明公开了基于超像素的深度图像预处理和深度空洞填充方法,包括以下步骤:步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;步骤二:基于超像素的深度图像预处理;步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;步骤四:虚拟视点深度图像填充。本发明采用基于超像素的深度图像预处理和基于超像素的深度空洞处理,空洞填充准确性较高,计算量较小,有利于视点合成的实时实现。
-
公开(公告)号:CN105929944A
公开(公告)日:2016-09-07
申请号:CN201610236179.X
申请日:2016-04-15
Applicant: 济南大学
IPC: G06F3/01
CPC classification number: G06F3/017
Abstract: 本发明提供了一种三维人机交互方法,属于人机交互领域。该方法利用粒子滤波方法跟踪手势,并对手势进行预测得到预测值,然后将预测值与当前值之间的向量延长,求出与功能菜单的交点,根据该交点获得用户意图。该方法减少了用户的记忆负担和操作负担并且在时间开销及精度上有明显的改善,实现了人机交互界面的自然性和高效性。
-
公开(公告)号:CN103455794B
公开(公告)日:2016-08-10
申请号:CN201310374176.9
申请日:2013-08-23
Applicant: 济南大学
Abstract: 本发明公开了一种基于帧融合技术的动态手势识别方法,其特征在于,包括如下步骤:将既定的一组动态手势根据密度分布特征划分为一组手势集合,对每个手势集合求其各个手势帧融合图像的密度分布特征参数,然后在各个集合内分别求其密度分布特征参数的平均值,将平均值作为该手势集合的模板特征向量H;对待识别的动态手势图像获取映射的静态组合图Q;计算静态组合图Q的密度分布特征,根据密度分布特征识别出动态手势所在的手势集合;根据密度分布特征的范围确定手势集合内的手势进一步选择采用Hausdorff距离方法或者指尖特征点方法。
-
公开(公告)号:CN104571823B
公开(公告)日:2015-12-02
申请号:CN201510013947.0
申请日:2015-01-12
Applicant: 济南大学
IPC: G06F3/0481 , G06F3/0484
Abstract: 本发明的一种基于智能电视的非接触式虚拟人机交互方法,包括以下步骤:步骤1,将智能电视连接图像传感设备,并在智能电视中建立手势识别系统和手势信息数据库,在手势信息数据库中存储若干种指定手势以及与指定手势一一对应关联的智能电视执行程序;步骤2,设定两种操作模式;步骤3,进行操作模式A,通过手势直接对智能电视切换出的二维菜单界面和三维操纵界面操作;步骤4,进行操作模式B,保持智能电视当前界面不变,调用与手势对应关联的智能电视执行程序。本发明的有益效果是:结合虚拟界面位置感知和用户的行为模型探测用户的交互意图,提出了解决了基于手势交互的人机系统中难以解决的“Midas Touch问题”的新途径。
-
公开(公告)号:CN104992156A
公开(公告)日:2015-10-21
申请号:CN201510394353.9
申请日:2015-07-07
Applicant: 济南大学
IPC: G06K9/00
CPC classification number: G06K9/00355
Abstract: 本发明的一种基于手势与多语义之间柔性映射的手势操控方法,首先筛选出操作者可能的交互意图,再结合交互上下文信息,进一步把操作者的手势语义压缩到更小的语义集合。其次,利用SDFBM特征,进一步锁定操作者手势语义。本发明的有益效果是:能够实现一个手势对应多个语义,减少了需要定义的手势命令数量,从而让用户不记忆或尽量少记忆手势命令就可以完成手势命令交互,可以自然地完成交互任务而不受记忆大量手势命令的困扰,不会因为操作者的误操作而中断从而影响交互的流畅性,极大减轻了给用户带来的认知负荷和操作负荷。
-
-
-
-
-
-
-
-
-