-
公开(公告)号:CN105247466B
公开(公告)日:2019-07-26
申请号:CN201480025709.5
申请日:2014-03-18
Applicant: 索尼公司
Inventor: 古贺康之
IPC: G06F3/0485
CPC classification number: G06F3/0485 , A63F13/211 , G02B27/0093 , G02B27/017 , G02B2027/014 , G02B2027/0187 , G06F3/014 , G06F3/04842 , G06F3/0487 , G06F3/0488
Abstract: 本发明的目的是提供一种允许用户容易地滚动内容的技术。提供了一种显示控制装置,其包括:第一获取单元,其配置为用于获取由第一检测单元所检测的显示单元的方位;以及显示控制单元,其配置为用于在所述显示单元处显示内容。所述显示控制单元根据所述显示单元的方位来滚动所述内容。
-
公开(公告)号:CN109696963A
公开(公告)日:2019-04-30
申请号:CN201910061948.0
申请日:2019-01-23
Applicant: 深圳大学
Abstract: 一种手语翻译系统、手语翻译手套及手语翻译方法,所述手语翻译系统包括:采集模块和数据识别模块;所述采集模块用于采集用户的手部动作数据;所述数据识别模块与所述采集模块连接,所述数据识别模块用于对所述动作数据进行归一化处理,以使所述动作数据映射至预设范围内并提取特征向量组;对所述特征向量组进行识别得到手语结果;本发明实施例中的手语翻译系统可实时根据用户的手部动作信息精确地得到与动作数据相匹配的思想内容,以实现用户双方的信息沟通功能,动作数据的机器学习的准确率极高,提高了用户的手语翻译效率,用户可通过手语进行更加便捷、灵活的沟通,用户的使用体验极佳。
-
公开(公告)号:CN109634439A
公开(公告)日:2019-04-16
申请号:CN201811563601.8
申请日:2018-12-20
Applicant: 中国科学技术大学
CPC classification number: G06F3/0237 , G06F3/014 , G06F3/015 , G06F2203/011 , G06K9/6256 , G06N3/084
Abstract: 本发明公开了一种智能文本输入方法,包括:采集当前输入模式下手指敲击时的肌电信号与运动信号;对采集到的肌电信号与运动信号进行多维特征提取,获得特征矩阵;根据当前输入模式,利用特征矩阵构建相应的识别模型,从而计算敲击字母概率矩阵;根据敲击字母概率矩阵结合文本推理算法生成文本字符,再根据语法规则对文本字符进行上下文分析,根据分析结果进行文本修复,从而获得相应的文本数据。上述可以在任意平面或完全脱离平面载体的条件下通过捕获手指敲击时的肌肉电信号和手部动作信息实现自由文本输入,摆脱了传统输入键盘对于输入设备及输入平面的限制要求,更大程度上实现了键盘输入的自由化,极大的提高了便利性。
-
公开(公告)号:CN109588063A
公开(公告)日:2019-04-05
申请号:CN201680086211.9
申请日:2016-06-28
Applicant: 英特尔公司
IPC: H04N21/236 , H04N21/2387 , H04N21/422 , H04N21/472 , G06F3/01
CPC classification number: G06F3/017 , G06F3/014 , H04N21/234 , H04N21/236 , H04N21/2387 , H04N21/422 , H04N21/4223 , H04N21/44213 , H04N21/44218 , H04N21/472 , H04N21/84 , H04N21/8456
Abstract: 本文描述了用于嵌入姿势的视频的系统和技术。视频流可由接收器获取。传感器可被测量以获取样本集,根据该样本集可确定姿势已在特定时间发生。可将姿势的表示和时间嵌入在视频流的经编码的视频中。
-
公开(公告)号:CN109471531A
公开(公告)日:2019-03-15
申请号:CN201811227289.5
申请日:2018-10-22
Applicant: 杭州联芳科技有限公司
Inventor: 丁红
IPC: G06F3/01
CPC classification number: G06F3/017 , G06F3/014 , G06F2203/011
Abstract: 本发明涉及人机交互技术领域,尤其涉及一种可穿戴式人机交互手势信息采集系统。一种可穿戴式人机交互手势信息采集系统,其特征在于,信息采集系统包括自旋阀单元和薄膜磁场单元,通过自旋阀单元和薄膜磁场单元两个单元模块角度的偏移,从而产生变化的电阻,信息采集系统将变化的电阻信号传递到控制系统,实现人机交互手势控制。本发明的有益效果:可穿戴式人机交互手势信息采集系统的传感器为磁性薄膜,与柔性手套融为一体,通过磁场相对位置调节自旋阀的开启,从而实现对手势信号的表达。采用自旋阀薄膜作为手势控制结构,灵敏度高,采用褶皱薄膜设计,实现手套的任意弯曲,在提高灵敏度的同时,延长使用寿命。
-
公开(公告)号:CN109364471A
公开(公告)日:2019-02-22
申请号:CN201811520574.6
申请日:2018-12-12
Applicant: 歌尔科技有限公司
Inventor: 董坤
IPC: A63F13/211 , A63F13/25 , A63F13/28 , A63F13/812 , G06F3/01
CPC classification number: A63F13/211 , A63F13/25 , A63F13/28 , A63F13/812 , A63F2300/105 , A63F2300/30 , A63F2300/302 , A63F2300/8011 , A63F2300/8082 , G06F3/011 , G06F3/012 , G06F3/014 , G06F3/016
Abstract: 本发明公开了一种VR系统,通过头戴惯性测量单元采集用户头部的运动数据,并发送至头戴控制单元;通过手部惯性测量单元采集用户手部的运动数据,并发送给头戴控制单元;通过脚部惯性测量单元采集用户脚部的运动数据,并发送给头戴控制单元;头戴控制单元根据接收到的数据控制显示单元的运行,使得显示单元展现出更加准确的虚拟场景;当显示单元中显示的虚拟场景中用户的手部受到力的作用时,头戴控制单元生成反馈信号,控制振动马达振动,用户手部可以感觉到振动,实现虚拟现实身体交互,实现了手脚组合类游戏的沉浸式体验,提高了用户的游戏体验。
-
公开(公告)号:CN109284005A
公开(公告)日:2019-01-29
申请号:CN201811292063.3
申请日:2018-10-31
Applicant: 吉林大学
IPC: G06F3/01 , G06F3/044 , G06F3/0488
CPC classification number: G06F3/016 , G06F3/014 , G06F3/044 , G06F3/0488
Abstract: 本发明涉及一种融合静电力和振动的可穿戴式触觉再现装置和方法,属于虚拟现实与人机交互领域。手指定位单元、手指速度检测单元、信号处理单元、静电力触觉再现单元、振动触觉再现单元和多媒体信息终端。手指定位单元和手指速度检测单元实时获取手指在触摸屏上的位置信息和手指的速度信息,信号处理单元根据手指的位置和速度信息进行处理得到相应的静电力触觉和振动触觉的驱动信号幅度参数,输出驱动信号到静电力触觉再现单元和振动触觉再现单元,改变手指受到的切向静电摩擦力和法向振动刺激,产生静电力和振动触觉反馈。优点在于:在平面触觉交互中,可同时呈现两种不同的触觉反馈,丰富触觉体验,增强触觉反馈的真实感。
-
公开(公告)号:CN109144598A
公开(公告)日:2019-01-04
申请号:CN201710465191.2
申请日:2017-06-19
Applicant: 天津锋时互动科技有限公司深圳分公司
IPC: G06F9/445 , G06F3/0488 , G06F3/0482 , G06F3/01
CPC classification number: G06F9/445 , G06F3/014 , G06F3/017 , G06F3/0482 , G06F3/0488
Abstract: 公开了基于手势的电子面罩人机交互方法与系统。所公开的人机交互方法,包括:响应于用户作出指定手势且对应于手部的光标处于第一指定区域,展示第一方向标识;响应于所述光标沿第一方向标识指示的方向进入第二指定区域,展示控件组;响应于所述光标在所述控件组所在平面的投影进入所述控件组的控件所在区域,将所述控件设置为待激活状态;响应于手部在虚拟坐标系中相对所述控件的距离小于阈值,将所述控件设置为已激活状态。
-
公开(公告)号:CN108958479A
公开(公告)日:2018-12-07
申请号:CN201810612664.1
申请日:2018-06-14
Applicant: 南京师范大学
CPC classification number: G06F3/014 , G06F2203/012 , G06T19/006
Abstract: 本发明公开了一种基于数据手套的通用三维虚拟场景实时交互方法:利用数据手套中的传感器获取手指关节的弯曲度以及手指之间的张合度,利用与数据手套配合的定位装置获得手套的空间位置、方位角参数,根据三维虚拟场景软件交互配置定义,将所获得的手套的空间位置、方位角参数、传感器参数与三维虚拟场景中视点等参数结合,转化为模拟鼠标/键盘输入,调用操作系统应用程序编程接口,将模拟鼠标/键盘输入状态信息转化为真实交互设备信息,驱动三维虚拟场景的实时交互。以此实现基于数据手套控制三维可视化软件中的虚拟场景实时旋转、漫游等交互。基于该方法,可将数据手套与其它三维可视化软件相集成,提高软件的三维交互能力。
-
公开(公告)号:CN108766434A
公开(公告)日:2018-11-06
申请号:CN201810466591.X
申请日:2018-05-11
Applicant: 东北大学
IPC: G10L15/26 , G10L13/02 , G06F3/0346 , G06F3/01
CPC classification number: G10L15/26 , G06F3/014 , G06F3/015 , G06F3/0346 , G10L13/02
Abstract: 本发明属于手语翻译软件技术领域,公开了一种手语识别翻译系统及方法。系统包括前端模块、网络连接模块、交互同步模块、算法模块、数据采集、处理模块、手语数据管理模块和资源管理模块;各个模块分别负责在识别过程中各个步骤所需的功能,以及支撑系统持续运行的数据内容的管理。根据采集到的传感器数据,进行数据处理及特征提取。对处理后的数据进行模式识别,多元分类,准确、完整的将手语动作转换为自然语言文本信息。我们对系统及算法进行了良好设计,既保证在识别过程中有良好的识别精准度,又确保用户的在使用过程中有良好的用户体验。
-
-
-
-
-
-
-
-
-