一种基于特征值的手势识别方法

    公开(公告)号:CN106295463A

    公开(公告)日:2017-01-04

    申请号:CN201510249327.7

    申请日:2015-05-15

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明的一种基于特征值的手势识别方法,首先构建手势数据库,选取m种手势,每种手势选取n幅手势图像,找出每幅手势图像中的四个特征值,存储在手势数据库中;然后在视频流中连续选取K帧待识别手势图像,采用相同的方法实时计算出每帧待识别图像的四个特征值进行比对。本发明的有益效果是:改善手势识别的识别率,并且对于手势的旋转、缩放和平移可以进行有效识别。

    一种基于深度引导扩展块匹配的三维视频帧率提升方法

    公开(公告)号:CN105933714A

    公开(公告)日:2016-09-07

    申请号:CN201610247833.7

    申请日:2016-04-20

    Applicant: 济南大学

    CPC classification number: H04N19/597 H04N19/577

    Abstract: 本发明公开了一种基于深度引导扩展块匹配的三维视频帧率提升方法,包括:对视频帧进行基于图像块的双向运动估计,利用估计得到的运动向量进行补偿得到初始深度插入帧根据初始深度插入帧,计算插入帧中每个深度图像块的二维结构张量,根据二维结构张量将图像块分成边缘图像块和非边缘图像块;将边缘图像块分成子块,利用基于深度信息引导的扩展块匹配方法估计每个子块的运动向量;以图像块为单位,对非边缘图像块和边缘图像子块进行适应性运动补偿,实现插入帧的重建。本发明有效的解决了三维视频帧率提升中插入帧前景物体边缘模糊的问题。

    一种基于深度信念网络的人体肤色区域分割方法

    公开(公告)号:CN105138975B

    公开(公告)日:2016-06-01

    申请号:CN201510497519.X

    申请日:2015-08-13

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于深度信念网络的人体肤色区域分割方法,属于计算机视觉和图像处理领域。该方法包括:(1).建立肤色块数据集和非肤色块数据集;(2).产生不同的颜色空间及其组合上的深度信念网络输入特征集;(3).训练不同尺度的深度信念网络,并优化确定各项参数;(4).输入测试图像,在不同尺度约束下,使用滑动窗口策略获取当前待检测图像块范围;(5).在当前滑动窗口确定的图像块上抽取需要的颜色空间分量或其组合,获取输入特征向量;(6).将输入特征向量输入训练好的深度信念网络,得到图像块的分类结果,如果分类结果为肤色块,则块内像素点置1;如果分类结果为非肤色块,则块内像素点置0。

    基于多特征融合的日冕物质抛射检测方法

    公开(公告)号:CN105046259A

    公开(公告)日:2015-11-11

    申请号:CN201510312081.3

    申请日:2015-06-09

    Applicant: 济南大学

    CPC classification number: G06K9/342 G06K9/6256 G06K9/6289

    Abstract: 本发明公开了一种基于多特征融合的日冕物质抛射检测方法,通过对CME差分图像进行分割,将CME检测建模为差分图像中最亮块的分类问题;首先,将原图像转化为极坐标显示;其次,由于CME的典型表现是明亮的、纹理复杂的增强结构,因此,查找CME的最亮块,以最亮块作为图像的代表,并提取最亮块的灰度、纹理以及HOG特征;最后,以抽取的灰度特征、纹理以及HOG特征为基础,采用决策树作为基分类器,采用集成决策树完成CME的检测。实验结果表明,提出的融合多特征的CME检测算法,可以取得较好的CME检测效果。

    一种智能虚拟装配动作识别方法

    公开(公告)号:CN104932804A

    公开(公告)日:2015-09-23

    申请号:CN201510347010.7

    申请日:2015-06-19

    Applicant: 济南大学

    Inventor: 冯志全 梁丽伟

    Abstract: 本发明提供了一种智能虚拟装配动作识别方法,属于虚拟装配领域。该方法根据场景模型中的任务编号和当前操作编号,确定场景中的当前操作物体;对用户的动作进行识别得到用户动作识别结果;将当前操作物体的操作属性及用户动作识别结果当作事实,遍历专家系统的规则库,寻找与规则前提匹配的规则,推理出结论,即用户的操作意图。

    一种通用的运动捕获数据检索方法

    公开(公告)号:CN104899248A

    公开(公告)日:2015-09-09

    申请号:CN201510204348.7

    申请日:2015-04-24

    Applicant: 济南大学

    Abstract: 一种通用的运动捕获数据检索方法。本发明提出了一种通用的运动数据表示形式—运动签名:它以统计学的角度从低层次和高层次全面描述了运动数据的形态学特征和运动学特征。在离线状态下,先将运动数据的原始标记点三维位置信息通过构造形态运动结构MAKS图的方式,抽取形状特征和运动学特征,保存为运动签名的形式;当在线查询时,针对查询样例,先构造其运动签名,然后根据形状-速度二维直方图判断它属于哪种运动类别,然后选择之前通过BDA学习到的这种运动类别的权重系数,通过和数据库中所有运动数据的运动签名进行加权距离的计算并排序,最后返回查询结果。本发明的有益效果是:采用适用范围更广的运动签名比对,检索精确度高,检索速度快,适用范围广。

    日冕物质抛射事件识别方法

    公开(公告)号:CN104318049A

    公开(公告)日:2015-01-28

    申请号:CN201410443408.6

    申请日:2014-10-30

    Applicant: 济南大学

    Abstract: 本发明公开了一种日冕物质抛射事件识别方法,先对具有CME现象和无CME现象的日冕观测图像进行切割,对切割块进行灰度信息特征的统计,找出有CME现象和无CME现象的日冕观测图像的差别。利用不同的切割尺寸进行切割,对比多种切割方式下有CME现象的日冕观测图像和无CME现象的日冕观测图像的灰度统计特征,选择较优的若干种切割方式。基于较优的切割方式下得到的切割图像的灰度统计特征设计若干弱分类器。最后用Adaboost算法调整各弱分类器的比重得到强分类器。用强分类器对日冕观测图集中的图像进行随机抽样检测是否发生CME,检测其正确率。利用Adaboost技术来组合多个分类器来解决CME的检测会取得较好的效果,达到了较高的检测正确率。

    一种面向三维交互界面的手势速度估计方法

    公开(公告)号:CN104156063A

    公开(公告)日:2014-11-19

    申请号:CN201410334029.3

    申请日:2014-07-14

    Applicant: 济南大学

    Inventor: 冯志全 黄忠柱

    Abstract: 本发明的一种面向三维交互界面的手势速度估计方法,为体现用户不同运动速度,首先利用数据手套确立手势速度与手势图像变化之间的基本关系;其次根据这种关系,分阶段建立速度估计模型;最后通过手势图像估计人手运动参数,得到实时的人手运动速度,使三维虚拟手势速度与实际人手运动速度保持一致。本发明的有益效果是:本发明与基于行为模型的手势跟踪算法相比较,平均运行时间降低了26%;在不同的运动速度下,本发明跟踪精度与数据手套对比,总体误差为10%。本发明提出的模型已经用于三维手势交互界面,通过对原型系统的测试表明,具有良好的用户体验。

    一种三维虚拟手势选择场景物体的方法

    公开(公告)号:CN103472923A

    公开(公告)日:2013-12-25

    申请号:CN201310445376.9

    申请日:2013-09-23

    Applicant: 济南大学

    Inventor: 冯志全 张廷芳

    Abstract: 本发明公开了一种三维虚拟手势选择场景物体的方法,包括如下步骤:(1)建立三维手势模型库;其特征在于,还包括如下步骤:(2)确定所放物体的桌面方程;(3)初始化时刻T=0;(4)预测三维手势的运动轨迹,利用三维手势T和T+1时刻的位置信息HT和HT+1,预测一条直线l:(5)初步选定待选的物体集C1;(6)最终确定待选的物体集C2;(7)显示待选的物体,将集合C2中的候选物体进行高光显示;(8)对待选的物体进行碰撞检测,依次对物体集C2每个候选物体进行碰撞检测,若碰撞检测成功,则结束,否则,T=T+1,T为时刻,转步骤(4)。本发明实现三维手势准确选择场景内的物体。

    一种多模态意图逆向主动融合的人机交互方法

    公开(公告)号:CN112099630B

    公开(公告)日:2024-04-05

    申请号:CN202010958262.4

    申请日:2020-09-11

    Applicant: 济南大学

    Abstract: 本发明公开一种多模态意图逆向主动融合的人机交互方法,包括:获取环境数据、用户的手势数据以及用户的语音数据;对所述环境数据进行场景感知获取环境信息,对所述手势数据进行手势信息提取获取手势意图,对所述语音数据进行语音信息提取获取语音意图;进行对环境信息、手势意图以及语音意图进行多模态意图提取获取融合意图;对所述融合意图进行信任度评价获取目标融合意图;按所述目标融合意图进行交互反馈。本发明融合意图结合环境时刻、手势数据、语音数据多模态提取而获得,使得意图识别更加准确;能够避免老年人因健忘而重复某一意图;通过主动问询的方式确认发生概率较低的融合意图是否用户本意,获取反映用户本意的目标融合意图。

Patent Agency Ranking