-
公开(公告)号:CN109271023A
公开(公告)日:2019-01-25
申请号:CN201810994124.4
申请日:2018-08-29
Applicant: 浙江大学
Abstract: 本发明公开了一种基于三维对象外形轮廓徒手手势动作表达的选择方法,包括以下步骤:(1)预处理阶段,实时计算生成位于操作者视域场景中的每一备选对象的外形轮廓;(2)徒手手势输入,操作者对期望选择的三维对象的外形轮廓进行徒手手势输入,进行手势轨迹图形的实时计算和绘制;(3)外形轮廓匹配,在预处理阶段生成的备选对象的外形轮廓与手势轨迹图形之间进行实时的外形轮廓匹配计算;(4)操作者确认,操作者通过手势对匹配上的备选对象进行选择和确认。利用本发明,可以有效解决因对象体积小和遮挡严重而造成的识别准确率低的问题,实现更为符合用户交互习惯和操作特点的、高效自然的三维对象人机交互。
-
公开(公告)号:CN103413137A
公开(公告)日:2013-11-27
申请号:CN201310335820.1
申请日:2013-08-05
Applicant: 浙江大学
Abstract: 本发明公开了一种基于多规则的交互手势运动轨迹分割方法,该方法首先用摄像机拍摄手持光笔的用户的交互手势的视频,然后用Camshift方法提取手势的运动轨迹点,再将运动轨迹点参数化表示,并设定约束条件,定义分割规则,最后使用贪心策略将轨迹点分割符合规则的区间:本发明可以根据不同类型的交互手势运动提供不同的分割方法,并且采用贪心策略,使结果更准确,效率更高。
-
公开(公告)号:CN111444771B
公开(公告)日:2022-06-21
申请号:CN202010122397.7
申请日:2020-02-27
Applicant: 浙江大学
IPC: G06V40/20 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06K9/62
Abstract: 本发明公开了一种基于循环神经网络的手势前置实时识别方法,包括以下步骤:A、离线建模阶段:leap motion采集手势数据,对采集到的数据进行预处理后提取手势特征,获得手势的特征序列,将手势特征序列和手势类型输入长短时记忆神经网络LSTM训练获得手势分类器。B、在线手势前置识别阶段:leap motion实时采集手势数据,处理手势数据,计算当前时间节点的手势特征,加入特征序列,将当前时间节点获得特征序列输入手势分类器,如果分类器输出预测概率大于95%,将此概率对应手势类型作为结果输出。利用本发明,可以做到与人的视觉类似的动态识别和提前预测能力,不需要等待手势全部完整表达完就可以实时识别出用户试图表达的手势类型,效果理想。
-
-
公开(公告)号:CN102930599B
公开(公告)日:2015-11-25
申请号:CN201210397401.6
申请日:2012-10-18
Applicant: 浙江大学
IPC: G06T17/00
Abstract: 本发明提出了一种基于双四元数的手运动的三维模拟方法,包括如下步骤:(1)输入待建模的虚拟手网格模型及其对应的运动骨骼模型;(2)确定虚拟手网格模型中各顶点初始位置以及各顶点的法线;(3)计算运动骨骼模型中每个关节点的双四元数;(4)针对虚拟手网格模型中每一个顶点查找与其相绑定的骨骼所对应的双四元数并赋以各自的权重值,再计算线性混合后的双四元数;(5)单位化线性混合后的双四元数;(6)计算所有顶点变形后的顶点位置及法线,对手进行三维模拟。本发明通过计算单位化线性混合后的双四元数,重新计算顶点变形后的位置和法线并对手进行三维模拟,使虚拟手具有更强的运动及视觉真实感,避免了裹糖纸、塌陷等现象。
-
公开(公告)号:CN113341692A
公开(公告)日:2021-09-03
申请号:CN202110559154.4
申请日:2021-05-21
Applicant: 浙江大学
IPC: G05B11/42
Abstract: 本发明提出一种基于摇杆隐喻开发的眼控交互系统,包括:执行体,所述执行体接收控制模块的方向速度指令,执行相应运动操作;所述控制模块,接收眼动仪提取的操作者的视线参考点坐标,并将视线参考点坐标作为目标位置参数提供PID避障算法,所述视线参考点坐标与执行体的中心点相连形成虚拟摇杆;所述PID避障算法,设置在控制模块内,将目标位置参数转换为方向速度指令,所述方向速度指令由控制模块发出。本发明仅需通过视线即可完成遥操作任务,弥补了传统交互方式的不足,触发操作不再与整个遥操作控制过程分离,操作者只需要看向希望执行体行驶的方向,就可以同时控制执行体行驶的方向和速度,避免了视角转换的问题。
-
公开(公告)号:CN112306231A
公开(公告)日:2021-02-02
申请号:CN202010979995.6
申请日:2020-09-17
Applicant: 浙江大学
IPC: G06F3/01 , G06F3/0487
Abstract: 本发明公开了一种基于半轮廓高亮的凌空徒手三维目标选择方法,包括:(1)准备阶段,系统将场景呈现给用户,同时为每个备选物体配置一个半轮廓遮挡模型;(2)标定‑高亮反馈阶段,采用基于椎体射线的动态标定方法选出4个或少于4个的物体成为确认选择的备选集,并对这些物体进行半轮廓高亮反馈;(3)确认‑结果反馈阶段,用户根据不同物体的不同高亮形式执行对应的选择确认手势操作,然后系统根据对手势的分析和识别,得出用户的确认意图,并匹配到对应高亮的物体,给予用户选择结果的反馈。利用本发明,让用户能够通过非精确的操作完成对选择意图的准确表达,进而提高物体的选择绩效和用户体验。
-
公开(公告)号:CN109271023B
公开(公告)日:2020-09-01
申请号:CN201810994124.4
申请日:2018-08-29
Applicant: 浙江大学
Abstract: 本发明公开了一种基于三维对象外形轮廓徒手手势动作表达的选择方法,包括以下步骤:(1)预处理阶段,实时计算生成位于操作者视域场景中的每一备选对象的外形轮廓;(2)徒手手势输入,操作者对期望选择的三维对象的外形轮廓进行徒手手势输入,进行手势轨迹图形的实时计算和绘制;(3)外形轮廓匹配,在预处理阶段生成的备选对象的外形轮廓与手势轨迹图形之间进行实时的外形轮廓匹配计算;(4)操作者确认,操作者通过手势对匹配上的备选对象进行选择和确认。利用本发明,可以有效解决因对象体积小和遮挡严重而造成的识别准确率低的问题,实现更为符合用户交互习惯和操作特点的、高效自然的三维对象人机交互。
-
公开(公告)号:CN109669542B
公开(公告)日:2020-06-30
申请号:CN201811570238.2
申请日:2018-12-21
Applicant: 浙江大学
IPC: G06F3/01 , G06F3/0481
Abstract: 本发明公开了一种基于回溯指点交互历史实现射线投射三维目标选择的技术,包括线下建模和线上操作两个阶段。线下建模通过重复采集用户数据拟合回溯时间区间与物体大小的关系;线上操作利用建立好的模型进行三维目标物体选择,包括:(1)记录射线与物体的交互历史;(2)根据线下建立的时间回溯区间模型计算交互历史中每个物体的时间回溯区间;(3)根据交互历史中每个物体的时间回溯区间计算每个物体的匹配度;(4)选择匹配度最高的物体。利用本发明,可以有效解决因设备抖动,用户手部自然抖动和海森堡效应造成的射线投射三维目标物体选择识别准确率低的问题,在不牺牲效率的情况下,实现更为准确、自然的三维对象人机交互。
-
公开(公告)号:CN106326811B
公开(公告)日:2019-05-31
申请号:CN201510365947.7
申请日:2015-06-26
Applicant: 浙江大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于分割信度的运动轨迹分割方法,包括以下步骤:获取运动轨迹,针对运动轨迹的每一个属性,获取运动轨迹的属性极值点;选取部分属性极值点作为第一候选分割点;所述运动轨迹的每一个属性分别设定多个带宽阈值,针对任一属性、任一带宽阈值,当第一候选分割点的属性变化率大于对应带宽阈值时,将该第一候选分割点标记为第二候选分割点;计算第二候选分割点所在轨迹点的信度值;设定信度阈值,将信度值小于信度阈值的第二候选分割点所在轨迹点过滤,得到最终的分割点集合。本发明可以消除运动轨迹中由于运动本身和运动采集设备噪声带来的数据不稳定的影响,同时在确保分割准确的前提下保证了分割的简洁性。
-
-
-
-
-
-
-
-
-