一种基于深度信念网络的人体肤色区域分割方法

    公开(公告)号:CN105138975B

    公开(公告)日:2016-06-01

    申请号:CN201510497519.X

    申请日:2015-08-13

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于深度信念网络的人体肤色区域分割方法,属于计算机视觉和图像处理领域。该方法包括:(1).建立肤色块数据集和非肤色块数据集;(2).产生不同的颜色空间及其组合上的深度信念网络输入特征集;(3).训练不同尺度的深度信念网络,并优化确定各项参数;(4).输入测试图像,在不同尺度约束下,使用滑动窗口策略获取当前待检测图像块范围;(5).在当前滑动窗口确定的图像块上抽取需要的颜色空间分量或其组合,获取输入特征向量;(6).将输入特征向量输入训练好的深度信念网络,得到图像块的分类结果,如果分类结果为肤色块,则块内像素点置1;如果分类结果为非肤色块,则块内像素点置0。

    基于多特征融合的日冕物质抛射检测方法

    公开(公告)号:CN105046259A

    公开(公告)日:2015-11-11

    申请号:CN201510312081.3

    申请日:2015-06-09

    Applicant: 济南大学

    CPC classification number: G06K9/342 G06K9/6256 G06K9/6289

    Abstract: 本发明公开了一种基于多特征融合的日冕物质抛射检测方法,通过对CME差分图像进行分割,将CME检测建模为差分图像中最亮块的分类问题;首先,将原图像转化为极坐标显示;其次,由于CME的典型表现是明亮的、纹理复杂的增强结构,因此,查找CME的最亮块,以最亮块作为图像的代表,并提取最亮块的灰度、纹理以及HOG特征;最后,以抽取的灰度特征、纹理以及HOG特征为基础,采用决策树作为基分类器,采用集成决策树完成CME的检测。实验结果表明,提出的融合多特征的CME检测算法,可以取得较好的CME检测效果。

    一种智能虚拟装配动作识别方法

    公开(公告)号:CN104932804A

    公开(公告)日:2015-09-23

    申请号:CN201510347010.7

    申请日:2015-06-19

    Applicant: 济南大学

    Inventor: 冯志全 梁丽伟

    Abstract: 本发明提供了一种智能虚拟装配动作识别方法,属于虚拟装配领域。该方法根据场景模型中的任务编号和当前操作编号,确定场景中的当前操作物体;对用户的动作进行识别得到用户动作识别结果;将当前操作物体的操作属性及用户动作识别结果当作事实,遍历专家系统的规则库,寻找与规则前提匹配的规则,推理出结论,即用户的操作意图。

    一种通用的运动捕获数据检索方法

    公开(公告)号:CN104899248A

    公开(公告)日:2015-09-09

    申请号:CN201510204348.7

    申请日:2015-04-24

    Applicant: 济南大学

    Abstract: 一种通用的运动捕获数据检索方法。本发明提出了一种通用的运动数据表示形式—运动签名:它以统计学的角度从低层次和高层次全面描述了运动数据的形态学特征和运动学特征。在离线状态下,先将运动数据的原始标记点三维位置信息通过构造形态运动结构MAKS图的方式,抽取形状特征和运动学特征,保存为运动签名的形式;当在线查询时,针对查询样例,先构造其运动签名,然后根据形状-速度二维直方图判断它属于哪种运动类别,然后选择之前通过BDA学习到的这种运动类别的权重系数,通过和数据库中所有运动数据的运动签名进行加权距离的计算并排序,最后返回查询结果。本发明的有益效果是:采用适用范围更广的运动签名比对,检索精确度高,检索速度快,适用范围广。

    日冕物质抛射事件识别方法

    公开(公告)号:CN104318049A

    公开(公告)日:2015-01-28

    申请号:CN201410443408.6

    申请日:2014-10-30

    Applicant: 济南大学

    Abstract: 本发明公开了一种日冕物质抛射事件识别方法,先对具有CME现象和无CME现象的日冕观测图像进行切割,对切割块进行灰度信息特征的统计,找出有CME现象和无CME现象的日冕观测图像的差别。利用不同的切割尺寸进行切割,对比多种切割方式下有CME现象的日冕观测图像和无CME现象的日冕观测图像的灰度统计特征,选择较优的若干种切割方式。基于较优的切割方式下得到的切割图像的灰度统计特征设计若干弱分类器。最后用Adaboost算法调整各弱分类器的比重得到强分类器。用强分类器对日冕观测图集中的图像进行随机抽样检测是否发生CME,检测其正确率。利用Adaboost技术来组合多个分类器来解决CME的检测会取得较好的效果,达到了较高的检测正确率。

    一种面向三维交互界面的手势速度估计方法

    公开(公告)号:CN104156063A

    公开(公告)日:2014-11-19

    申请号:CN201410334029.3

    申请日:2014-07-14

    Applicant: 济南大学

    Inventor: 冯志全 黄忠柱

    Abstract: 本发明的一种面向三维交互界面的手势速度估计方法,为体现用户不同运动速度,首先利用数据手套确立手势速度与手势图像变化之间的基本关系;其次根据这种关系,分阶段建立速度估计模型;最后通过手势图像估计人手运动参数,得到实时的人手运动速度,使三维虚拟手势速度与实际人手运动速度保持一致。本发明的有益效果是:本发明与基于行为模型的手势跟踪算法相比较,平均运行时间降低了26%;在不同的运动速度下,本发明跟踪精度与数据手套对比,总体误差为10%。本发明提出的模型已经用于三维手势交互界面,通过对原型系统的测试表明,具有良好的用户体验。

    一种三维虚拟手势选择场景物体的方法

    公开(公告)号:CN103472923A

    公开(公告)日:2013-12-25

    申请号:CN201310445376.9

    申请日:2013-09-23

    Applicant: 济南大学

    Inventor: 冯志全 张廷芳

    Abstract: 本发明公开了一种三维虚拟手势选择场景物体的方法,包括如下步骤:(1)建立三维手势模型库;其特征在于,还包括如下步骤:(2)确定所放物体的桌面方程;(3)初始化时刻T=0;(4)预测三维手势的运动轨迹,利用三维手势T和T+1时刻的位置信息HT和HT+1,预测一条直线l:(5)初步选定待选的物体集C1;(6)最终确定待选的物体集C2;(7)显示待选的物体,将集合C2中的候选物体进行高光显示;(8)对待选的物体进行碰撞检测,依次对物体集C2每个候选物体进行碰撞检测,若碰撞检测成功,则结束,否则,T=T+1,T为时刻,转步骤(4)。本发明实现三维手势准确选择场景内的物体。

    一种多模态意图逆向主动融合的人机交互方法

    公开(公告)号:CN112099630B

    公开(公告)日:2024-04-05

    申请号:CN202010958262.4

    申请日:2020-09-11

    Applicant: 济南大学

    Abstract: 本发明公开一种多模态意图逆向主动融合的人机交互方法,包括:获取环境数据、用户的手势数据以及用户的语音数据;对所述环境数据进行场景感知获取环境信息,对所述手势数据进行手势信息提取获取手势意图,对所述语音数据进行语音信息提取获取语音意图;进行对环境信息、手势意图以及语音意图进行多模态意图提取获取融合意图;对所述融合意图进行信任度评价获取目标融合意图;按所述目标融合意图进行交互反馈。本发明融合意图结合环境时刻、手势数据、语音数据多模态提取而获得,使得意图识别更加准确;能够避免老年人因健忘而重复某一意图;通过主动问询的方式确认发生概率较低的融合意图是否用户本意,获取反映用户本意的目标融合意图。

    一种VR场景下人机协同抓取物体的方法

    公开(公告)号:CN110766804B

    公开(公告)日:2023-08-18

    申请号:CN201911041939.1

    申请日:2019-10-30

    Applicant: 济南大学

    Inventor: 冯志全 李健

    Abstract: 本发明提供了一种VR场景下人机协同抓取物体的方法,属于虚拟现实技术领域。该方法包括:同时进行手势识别和语音识别,其中,所述手势识别是采集人手的视频信号,根据所述视频信号驱动虚拟场景中的虚拟人手的运动,并获得手势识别结果;所述语音识别是采集用户的音频信号,对音频信号进行识别和语义分析,根据语义分析得到语音识别结果;根据所述手势识别结果和语音识别结果进行场景主动转换,协助用户完成操作。利用本发明能够协助用户准确高效地操作自己想要交互的虚拟物体。

    一种基于虚拟手交互的虚拟手位置矫正方法及系统

    公开(公告)号:CN111694432B

    公开(公告)日:2023-04-07

    申请号:CN202010530219.8

    申请日:2020-06-11

    Applicant: 济南大学

    Inventor: 冯志全 曾波涛

    Abstract: 本发明提供了一种基于虚拟手交互的虚拟手位置矫正方法及系统,本发明针对虚拟场景的三维视角呈现方式使交互场景中物体呈现近大远小、靠近视觉区域边缘的物体在视觉上被拉伸变形的问题,根据虚拟手在场景中的位置,通过对虚拟手法向量修正实现对自身进行位置矫正,使其与真实手的位置在空间和视角上重合,从而矫正了用户进行交互时的错位感,提升了交互真实性体验,一定程度上提高了交互的成功率以及交互效率。

Patent Agency Ranking