-
公开(公告)号:CN104766054A
公开(公告)日:2015-07-08
申请号:CN201510137223.7
申请日:2015-03-26
Applicant: 济南大学
IPC: G06K9/00
Abstract: 本发明的人机交互界面中基于视觉关注模型的手势跟踪方法,首先,通过眼动仪实现了对人眼视线变化过程准确追踪;然后,对眼动仪输出的数据进行分析,建立操作者对有关事件的视觉关注模型;最后,以视觉关注模型为基础,设计三维手势跟踪算法。核心在于获取操作者在三维场景中的视觉关注模型。本发明的有益效果是:将视觉关注与人机交互相结合,能够呈现人类的视觉规律,更加注重追求自然的人机交互风格,而且通过用户在人机交互过程中的视觉关注分布规律来突破了目前存在的手势跟踪速度的瓶颈问题。通过引入视觉关注机制,降低了平均运行时间,提高了人机交互效率、人机交互速度和手势跟踪精度。
-
公开(公告)号:CN104090663A
公开(公告)日:2014-10-08
申请号:CN201410334996.X
申请日:2014-07-14
Applicant: 济南大学
IPC: G06F3/01
Abstract: 本发明的一种基于视觉关注模型的手势交互方法,首次研究手势交互界面中用户视觉关注的分布规律。首先,通过使用眼动仪完成对人眼视线变化过程准确追踪;其次,对眼动仪输出的数据进行分析,揭示了视觉关注的一般规律,并建立了操作者的视觉关注模型;再次,利用5次高斯公式对这个模型进行描述。最后,将视觉关注模型用于手势跟踪算法设计。本发明的有益效果是:该模型在小部分区域保持较强,显著改善手势交互的效率,提高了速度,精度也得到提到。真实模拟了人类在一定区域仔细观察的视觉特征。
-
公开(公告)号:CN103699214A
公开(公告)日:2014-04-02
申请号:CN201310285326.9
申请日:2013-07-08
Applicant: 济南大学
Abstract: 本发明公开了一种基于三维自然手势的三维跟踪和交互方法,其特征在于,包括如下步骤:初始化三维手势模型;通过概率统计方法初始化行为模型库,该行为模型包括四个矩阵:矩阵一Obje-matrix,矩阵二Gest-matrix,矩阵三Beha-matrix和矩阵四Path,矩阵一表示在操作场景中完成对物体i进行操作后选择物体j进行操作的概率;矩阵二表示由基本手势i到基本手势j的转移概率;矩阵三Beha-matrix[i]表示基本手势i的行为模型;矩阵四表示由物体i到物体j的路径。
-
公开(公告)号:CN103455794A
公开(公告)日:2013-12-18
申请号:CN201310374176.9
申请日:2013-08-23
Applicant: 济南大学
Abstract: 本发明公开了一种基于帧融合技术的动态手势识别方法,其特征在于,包括如下步骤:将既定的一组动态手势根据密度分布特征划分为一组手势集合,对每个手势集合求其各个手势帧融合图像的密度分布特征参数,然后在各个集合内分别求其密度分布特征参数的平均值,将平均值作为该手势集合的模板特征向量H;对待识别的动态手势图像获取映射的静态组合图Q;计算静态组合图Q的密度分布特征,根据密度分布特征识别出动态手势所在的手势集合;根据密度分布特征的范围确定手势集合内的手势进一步选择采用Hausdorff距离方法或者指尖特征点方法。
-
公开(公告)号:CN102830938A
公开(公告)日:2012-12-19
申请号:CN201210339018.5
申请日:2012-09-13
Applicant: 济南大学
Abstract: 本发明公开了一种基于手势动画的3D人机交互方法,其特征在于,包括以下步骤:(1)操作者在指定的极短设定时间内预演操作手势,计算机通过摄像头采集到二维手势图像序列;(2)对二维手势图像序列进行识别;(3)计算机从数据库中检索出该二维手势图像序列对应的三维手势模型序列;(4)操作者以正常速度重复预演过的手势,计算机获得重复预演的二维手势图像;(5)按照下式估计三维手势模型在时刻k的运动速度:V=λΔ(5),其中,λ是一个经验常数,Δ是当前手势图像的变化速度,其计算方法为:Δ=|Ik-Ik-1|(6),这里,Ik表示当前时刻k的二维手势图像,Ik-1表示k-1时刻的二维手势图像;(6)根据当前手势的估计速度,播放三维手势模型序列。
-
公开(公告)号:CN101567093B
公开(公告)日:2012-05-16
申请号:CN200910015471.9
申请日:2009-05-25
Applicant: 济南大学
Abstract: 本发明公开了一种三维手势模型的初始化方法,包括如下步骤:(1)建立三维手势数据库;(2)利用摄像机采集手势图像,并从视频流中获取一个帧图像,计算观测特征值;(3)在三维手势数据库中搜寻与当前手势图像最相近的三维手势模型;(4)从视频流获取新的观测特征值,并进行可视化显示;(5)操作者调整手势状态;(6)如果操作者不认可当前手势状态,转向步骤(4);(7)如果操作者认可当前手势状态,则停止调整,对当前的手势状态及三维手势模型进行评价,得出评价结果,如果评价结果达到精度要求,则绘制、输出三维手势模型,初始化成功,如果评价结果没有达到精度要求,转向步骤(4)。
-
公开(公告)号:CN119516852A
公开(公告)日:2025-02-25
申请号:CN202411636115.X
申请日:2024-11-15
Applicant: 济南大学
Abstract: 本发明公开了基于多模态感知进行实时反馈的虚实融合化学实验平台,包括,视频捕获模块,对学生实验过程进行视频采集,捕捉学生使用实验器材的操作过程;目标检测模块,实时检测化学实验过程中涉及到的各种实验器材和化学试剂;HOI检测模块,实验过程中,识别学生与实验器材之间的交互行为,判断其是否与预设实验步骤中的关键点对齐;反馈模块,依据目标检测与HOI检测的检测结果,判断学生实验过程操作的正确性,面对错误的操作可实时进行反馈提示;通过视频捕获模块在学生独立进行化学实验操作时能够将其实验过程进行视频采集,依据设定的实验步骤中的关键节点经由目标检测模块和HOI检测模块的结果与这些节点进行对比,判断学生的操作是否正确。
-
公开(公告)号:CN116156310A
公开(公告)日:2023-05-23
申请号:CN202310032255.5
申请日:2023-01-10
Applicant: 济南大学
Inventor: 冯志全
IPC: H04N23/611 , H04N9/31
Abstract: 一种穿戴式摄像机姿态监控与识别系统及方法,系统包括:头戴式穿戴架,摄像头,头戴式微型摄像机,与头戴式穿戴架固定连接,用于获取场景视频信息;投影装置,投影装置向微型摄像机拍摄的同一场景中投影,用于增强信息;通过调整投影装置的光轴方向,使投影图案的中心位置位于头戴式微型摄像机光轴线上;提示模块,当系统发生异常时发出提示;角度感知模块,用于获取头戴式微型摄像机的角度姿态信息,所述角度姿态信息包括:视角θ和仰角ω。本系统解决了采用头戴式摄像机容易出现的拍摄不到或拍摄不全操作场景、头部运动而影响实验评分结果等问题,本系统采用多投影区域技术,实现了对用户行为的精准指引,避免识别到其他不相关的器材。
-
公开(公告)号:CN109101872B
公开(公告)日:2023-04-18
申请号:CN201810633829.3
申请日:2018-06-20
Applicant: 济南大学
IPC: G06V40/20
Abstract: 本发明涉及一种3D手势鼠标的生成方法,包括以下步骤,a.视频输入,采用Kinect获取视频流,根据其手部节点位置获取手部的大致范围,分别提取手部的深度图像和RGB图像;b.特征提取,对于从步骤a中获取的两种图像将分别提取不同的特征用于后续的指尖跟踪;c.特征融合以获得观测模型;d.粒子滤波跟踪,采用的粒子滤波方法过程明细如下:粒子样本集合描述,设粒子集合模型S={x,y,vx,vy,wx,wy,a},在此,wx,wy,均设为固定值d1,a是速度的尺度变换因子,样本集合的更新通过系统状态变化传播方程st=Ast+wt‑1实现;在本发明中并给出了粒子滤波算法步骤;e.鼠标位置转换。本发明提出了更加有效的特征,并且进行特征融合,再结合角点检测来达到实时精确的跟踪目的的有益效果。
-
公开(公告)号:CN112308116B
公开(公告)日:2023-04-07
申请号:CN202011045564.9
申请日:2020-09-28
Applicant: 济南大学
IPC: G06V10/80 , G06V20/50 , G06V40/20 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/096 , G10L15/22 , G06Q50/26
Abstract: 本发明提出了一种助老陪护机器人的自调优多通道融合方法和系统,该方法包括以下步骤:获取用户的语音信息、对象信息和手势信息,并进行离散化处理得到听觉集合、视觉集合和手势集合;基于神经网络的自学习功能,将听觉集合、视觉集合和手势集合根据机器人指令知识库进行一次多通道融合,对融合信息进行量化,并输出初始融合算子;对多通道融合进行迭代,在每次迭代时判断输出融合算子的变化、并调整输出的融合信息作为下次迭代的输入,当融合算子不变时迭代终止。基于该方法,还提出了融合系统。本发明使用神经网络的自学习思想以更灵活适应不同的信息表达方式找到最佳的组合模式,提高了助老陪护机器人信息融合的灵活性和鲁棒性。
-
-
-
-
-
-
-
-
-