-
公开(公告)号:CN106358044B
公开(公告)日:2017-07-21
申请号:CN201610976656.6
申请日:2016-10-28
Applicant: 济南大学
IPC: H04N19/513 , H04N19/52 , H04N19/577
Abstract: 本发明公开了一种立体视频帧率提升中运动矢量检测与校正方法及系统,首先,利用运动矢量的空间相关性,即相邻运动矢量之间的方向相关性和幅度相关性,对插入帧运动矢量场中的错误运动矢量和不可靠运动矢量进行检测;其次,利用融合空间、颜色和深度信息的方法校正插入帧运动矢量场中的错误运动矢量和不可靠运动矢量,得到插入帧的真实运动矢量场。本发明提高了检测效果,降低了错误运动矢量的漏检率。
-
公开(公告)号:CN106954076A
公开(公告)日:2017-07-14
申请号:CN201710146159.8
申请日:2017-03-13
Applicant: 济南大学
IPC: H04N19/89 , H04N19/513
CPC classification number: H04N19/89 , H04N19/513
Abstract: 本发明一种基于视点间关系的多视点视频帧插入方法,首先,利用单向运动估计算法进行前向和后向运动估计,获取前向运动向量场和后向运动向量场;其次,根据深度信息检测出上一帧图像和当前帧图像中遮挡图像块,并进一步将遮挡图像块分成覆盖型图像块和非覆盖型图像块;然后,利用多视点视频视点间的关系进行遮挡图像块的处理;最后,对插入帧中的每个图像块进行运动向量分配,并利用双向运动补偿实现帧插入。本发明充分考虑多视点视频中不同视点在空间上的关系,利用这种空间关系解决视频帧插入中遮挡区域处理这一关键问题,减弱现有的二维视频和三维视频帧插入方法中存在的前景物体边缘模糊现象,从而明显提升了插入帧的视觉质量。
-
公开(公告)号:CN104951073B
公开(公告)日:2017-03-29
申请号:CN201510347461.0
申请日:2015-06-19
Applicant: 济南大学
IPC: G06F3/01 , G06F3/0481
Abstract: 本发明提供了一种基于虚拟界面的手势交互方法,属于人机交互领域。该方法包括:S1,手势分割:从复杂背景中把手势图像分离出来,只在前景中保留手势部分;S2,构建虚拟界面:操作者按照从左到右、从下到上的顺序,在空中画矩形轨迹,根据该矩形轨迹拟合得到虚拟界面;S3,对所述虚拟界面进行分区,并判断人手所处的分区;S4,虚拟界面的实时刷新移动:当人体移动时,已生成的虚拟界面随着人体的移动进行相应的同方向移动。
-
公开(公告)号:CN106529470A
公开(公告)日:2017-03-22
申请号:CN201610983244.5
申请日:2016-11-09
Applicant: 济南大学
Inventor: 冯志全
CPC classification number: G06K9/00389 , G06K9/6268 , G06N3/04
Abstract: 本发明提供了一种基于多级深度卷积神经网络的手势识别方法,属于计算机和信息技术领域。该方法包括:(1)把当前人体图像I送入人体态势感知DNN;所述人体图像I为人体bmp位图数据;(2)判断人体是否处于操作态势,若是,转步骤(3),若不是,转步骤(1);(3)把输入手势g同时送往DNN混合模型群进行并行识别,得到识别结果O1,O2,…,ON,其中,N是混合模型群中DNN的个数;(4)用二分类DNN模型群对步骤(3)得到的每个Oi进行再识别,得到识别结果Y_1,Y_2,…,Y_N;(5)对步骤(4)得到的Y_1,Y_2,…,Y_N进行评价,得到识别结果g′;(6)对g′进行误判识别,并对误判手势进行自动纠正,得到手势g″;(7)输出结果g″。
-
公开(公告)号:CN106358044A
公开(公告)日:2017-01-25
申请号:CN201610976656.6
申请日:2016-10-28
Applicant: 济南大学
IPC: H04N19/513 , H04N19/52 , H04N19/577
CPC classification number: H04N19/513 , H04N19/521 , H04N19/577
Abstract: 本发明公开了一种立体视频帧率提升中运动矢量检测与校正方法及系统,首先,利用运动矢量的空间相关性,即相邻运动矢量之间的方向相关性和幅度相关性,对插入帧运动矢量场中的错误运动矢量和不可靠运动矢量进行检测;其次,利用融合空间、颜色和深度信息的方法校正插入帧运动矢量场中的错误运动矢量和不可靠运动矢量,得到插入帧的真实运动矢量场。本发明提高了检测效果,降低了错误运动矢量的漏检率。
-
公开(公告)号:CN105915987A
公开(公告)日:2016-08-31
申请号:CN201610237422.X
申请日:2016-04-15
Applicant: 济南大学
IPC: H04N21/422 , H04N21/485 , G06F3/01
Abstract: 本发明提供了一种面向智能电视的隐式交互方法,属于智能电器领域。所述方法包括:实时获取用户体态行为信息,检测用户位置,并检测与识别用户手势动作;同时检测智能电视的功能状态信息,获得低层次的显式交互信息;将处理后的用户体态行为信息与智能电视实时的功能状态信息相结合,建立基于用户行为和智能电视状态的多层次动态上下文推理模型,获得高层次的隐含交互信息;将隐含交互信息可视化,识别用户在可视化隐含信息指导下完成的手势动作,建立显隐信息融合的隐式交互行为模型,完成交互任务。
-
公开(公告)号:CN105912122A
公开(公告)日:2016-08-31
申请号:CN201610236732.X
申请日:2016-04-15
Applicant: 济南大学
CPC classification number: G06F3/017 , G06F2203/012 , G06K9/00355
Abstract: 本发明提供了一种用于虚拟装配的隐式交互方法,属于虚拟装配领域。该方法建立场景知识模型和用户知识模型,结合场景知识模型和用户知识模型分别构建显式交互知识库和隐式交互知识库;基于场景任务进行用户隐式意图感知,根据场景物体和虚拟手位置关系的进行场景感知拉近,以及基于物体方向包围盒的特征面和虚拟手的方向关系的进行场景物体旋转。本发明增强了虚拟装配系统的感知能力,降低了用户的操作负担和认知负担。
-
公开(公告)号:CN104090663B
公开(公告)日:2016-03-23
申请号:CN201410334996.X
申请日:2014-07-14
Applicant: 济南大学
IPC: G06F3/01
Abstract: 本发明的一种基于视觉关注模型的手势交互方法,首次研究手势交互界面中用户视觉关注的分布规律。首先,通过使用眼动仪完成对人眼视线变化过程准确追踪;其次,对眼动仪输出的数据进行分析,揭示了视觉关注的一般规律,并建立了操作者的视觉关注模型;再次,利用5次高斯公式对这个模型进行描述。最后,将视觉关注模型用于手势跟踪算法设计。本发明的有益效果是:该模型在小部分区域保持较强,显著改善手势交互的效率,提高了速度,精度也得到提到。真实模拟了人类在一定区域仔细观察的视觉特征。
-
公开(公告)号:CN105204627A
公开(公告)日:2015-12-30
申请号:CN201510551014.7
申请日:2015-09-01
Applicant: 济南大学
IPC: G06F3/01
Abstract: 本发明提供了一种基于手势的数字输入方法,属于计算机领域。该方法构造虚拟界面,所述虚拟界面是操作者手势操作区域,该虚拟界面能够随着操作者的身体位置或体态的变化而变化;通过一个虚拟界面逐次输入N个数字,或者通过生成N个虚拟界面,每个虚拟界面输入一个数字,这N个虚拟界面形成虚拟界面群;将显示屏幕定义为物理界面,操作者与物理界面之间的空间定义为物理空间;所述物理空间包括虚拟界面和非虚拟界面;操作者的手势只有在虚拟界面内才是有效的和能够感知的,在非虚拟界面内的手势是无效的;通过所述虚拟界面群输入数字。
-
公开(公告)号:CN105045373A
公开(公告)日:2015-11-11
申请号:CN201510136561.9
申请日:2015-03-26
Applicant: 济南大学
Abstract: 本发明的面向用户心理模型表达的三维手势交互方法,从速度、轨迹和视角三个方面提出一种基于单目视觉的人手运动风格表达算法。首先,建立交互实验平台,利用摄像头、数据手套和位置跟踪仪,建立手势行为模型;其次,根据行为模型,分阶段建立人手运动的速度、轨迹和视角模型。最后,通过手势图像和运动模型,获得人手运动风格,使三维虚拟手势运动风格与实际人手运动风格保持一致,并实时显示,从而顺利完成和谐、自然、方便的人机交互任务。本发明的有益效果是:本发明将基于行为模型的手势风格算法运用到自然交互界面的设计中,表达用户的心理模型,降低用户的认知负荷,改善用户的交互体验。
-
-
-
-
-
-
-
-
-