-
公开(公告)号:CN113918015A
公开(公告)日:2022-01-11
申请号:CN202111171422.1
申请日:2021-10-08
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
Abstract: 本申请公开了一种增强现实的交互方法和装置,其中方法包括:在增强现实(AR)场景中,基于超宽带(UWB)雷达传感器,监测用户的指定肢体动作;其中,所述UWB雷达传感器的覆盖区域和AR显示区域重叠;当监测到指定的肢体动作时,根据所述肢体动作对应的操作在所述AR场景进行相应渲染;其中,如果所述肢体动作对应的操作属于针对场景中具体对象的操作,则根据相应监测时获得的肢体定位坐标,确定所述AR显示区域中的目标操作对象。采用本申请,既可以保障操作方便性,又可以提高操作识别的准确性。
-
公开(公告)号:CN108227928A
公开(公告)日:2018-06-29
申请号:CN201810021624.X
申请日:2018-01-10
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/01
CPC classification number: G06F3/014
Abstract: 本发明公开了一种虚拟现实场景中的拾取方法和装置,其是通过数据采集模块接收手指压力数据,通过IMU模块获取虚拟手在虚拟现实场景中的位置数据和朝向数据,通过物理计算模块构建拾取几何体,并判断虚拟现实场景中物体的包围盒是否与拾取几何体位置相交,进而确定是否拾取该物体。本发明基于多触点压力判断虚拟现实场景中物体的拾取,其针对当前的虚拟现实设备提供了真实并且高效的拾取操作,与现有技术相比,本发明技术方案只需要对多触点的手部压力进行拾取判断,无需对具体的每个手指进行手势识别,降低了软件计算的复杂度,并且比现有的精确拾取判断方法更为高效。本发明同时提高了用户虚拟现实交互的沉浸感,提升了用户体验。
-
公开(公告)号:CN107290972A
公开(公告)日:2017-10-24
申请号:CN201710542645.1
申请日:2017-07-05
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
Inventor: 梁效富
IPC: G05B15/02 , G05B19/418
Abstract: 本申请公开了设备控制方法和装置。该方法的一具体实施方式包括:获取佩戴头戴式设备的头部的第一运动姿态信息;解析所获取的第一运动姿态信息,并确定与第一运动姿态信息相匹配的头部动作类型;基于所确定的头部动作类型,确定针对目标设备的控制指令;向目标设备发送控制指令,以供目标设备响应于接收到控制指令进行相应的操作。该实施方式丰富了设备控制的手段。
-
公开(公告)号:CN107229393A
公开(公告)日:2017-10-03
申请号:CN201710407720.3
申请日:2017-06-02
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/0481 , G06F3/0482 , H04N21/44
CPC classification number: G06F3/04815 , G06F3/0482 , G06F2203/04802 , H04N21/44012
Abstract: 本发明提供一种虚拟现实场景的实时编辑方法、装置、系统及客户端,实时编辑方法包括:显示虚拟现实场景,虚拟现实场景包含至少一个编辑对象;输入第一预设指令,进入场景编辑模式;通过输入控制,确定虚拟现实场景中的编辑对象和编辑指令;对编辑对象执行编辑指令所匹配的修改后,实时呈现修改后的虚拟现实场景。本发明通过现有交互方式,对实时虚拟现实场景进行编辑,即改即现,编辑后立即呈现,提高虚拟现实场景灵活性、可操作性、可扩展性,增强虚拟现实参与感和观感,有效提升用户体验。
-
公开(公告)号:CN108227928B
公开(公告)日:2021-01-29
申请号:CN201810021624.X
申请日:2018-01-10
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/01
Abstract: 本发明公开了一种虚拟现实场景中的拾取方法和装置,其是通过数据采集模块接收手指压力数据,通过IMU模块获取虚拟手在虚拟现实场景中的位置数据和朝向数据,通过物理计算模块构建拾取几何体,并判断虚拟现实场景中物体的包围盒是否与拾取几何体位置相交,进而确定是否拾取该物体。本发明基于多触点压力判断虚拟现实场景中物体的拾取,其针对当前的虚拟现实设备提供了真实并且高效的拾取操作,与现有技术相比,本发明技术方案只需要对多触点的手部压力进行拾取判断,无需对具体的每个手指进行手势识别,降低了软件计算的复杂度,并且比现有的精确拾取判断方法更为高效。本发明同时提高了用户虚拟现实交互的沉浸感,提升了用户体验。
-
公开(公告)号:CN110377167A
公开(公告)日:2019-10-25
申请号:CN201910609204.8
申请日:2019-07-08
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/023
Abstract: 提供了一种字体产生方法和字体产生装置。所述字体产生方法包括:获取用户的手写字体;基于获取的用户的手写字体以及与获取的用户的手写字体相应的标准字体对获取的用户的手写字体进行调整;将调整后的用户的手写字体与相应于调整后的用户的手写字体的标准字体作为字对进行存储;提取调整后的用户的手写字体的特征信息并存储所述特征信息;响应于接收到包括与字对相关的第一特定字符的第一输入,输出包括在字对中的与第一输入相应的用户的手写字体;响应于接收到包括与字对无关的第二特定字符的第二输入,基于所述特征信息产生与第二输入相应的用户的手写字体,并输出产生的与第二输入相应的用户的手写字体。
-
公开(公告)号:CN113918015B
公开(公告)日:2024-04-19
申请号:CN202111171422.1
申请日:2021-10-08
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
Abstract: 本申请公开了一种增强现实的交互方法和装置,其中方法包括:在增强现实(AR)场景中,基于超宽带(UWB)雷达传感器,监测用户的指定肢体动作;其中,所述UWB雷达传感器的覆盖区域和AR显示区域重叠;当监测到指定的肢体动作时,根据所述肢体动作对应的操作在所述AR场景进行相应渲染;其中,如果所述肢体动作对应的操作属于针对场景中具体对象的操作,则根据相应监测时获得的肢体定位坐标,确定所述AR显示区域中的目标操作对象。采用本申请,既可以保障操作方便性,又可以提高操作识别的准确性。
-
公开(公告)号:CN110377167B
公开(公告)日:2023-12-19
申请号:CN201910609204.8
申请日:2019-07-08
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/023
Abstract: 提供了一种字体产生方法和字体产生装置。所述字体产生方法包括:获取用户的手写字体;基于获取的用户的手写字体以及与获取的用户的手写字体相应的标准字体对获取的用户的手写字体进行调整;将调整后的用户的手写字体与相应于调整后的用户的手写字体的标准字体作为字对进行存储;提取调整后的用户的手写字体的特征信息并存储所述特征信息;响应于接收到包括与字对相关的第一特定字符的第一输入,输出包括在字对中的与第一输入相应的用户的手写字体;响应于接收到包括与字对无关的第二特定字符的第二输入,基于所述特征信息产生与第二输入相应的用户的手写字体,并输出产生的与第二输入相应的用户的手写字体。
-
公开(公告)号:CN109118575B
公开(公告)日:2023-06-06
申请号:CN201810775484.5
申请日:2018-07-16
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06T17/00 , G06F3/04883 , G06F9/451 , G04G9/00
Abstract: 本发明提出可穿戴设备的立体显示方法及装置。方法包括:可穿戴设备的立体模型创建引擎保存可穿戴设备的显示屏上的一个或多个显示要素的立体模型;可穿戴设备的显示引擎保存显示屏默认状态下显示的各个显示要素的标识及各显示要素在显示屏上的位置;可穿戴设备的信息处理引擎检测到可穿戴设备上电,向显示引擎发送上电显示指令;显示引擎接收上电显示指令,根据显示屏默认状态下显示的各个显示要素的标识,向立体模型创建引擎获取各显示要素对应的立体模型,根据显示屏默认状态下各显示要素在显示屏上的位置,将获取到的各显示要素的立体模型显示在显示屏的对应位置上。本发明实现了可穿戴设备显示屏上各显示要素的立体显示效果。
-
公开(公告)号:CN107390868A
公开(公告)日:2017-11-24
申请号:CN201710568961.6
申请日:2017-07-13
Applicant: 三星电子(中国)研发中心 , 三星电子株式会社
IPC: G06F3/01 , G06F3/0487
CPC classification number: G06F3/013 , G06F3/0487 , G06F2203/012
Abstract: 本发明公开了一种虚拟现实的逃离方法及装置,本发明实施例在VR场景中跟踪用户的眼睛眨眼间隔,根据所跟踪的用户眼睛眨眼间隔计算得到用户的闭眼状态值,根据设置的用户的闭眼状态值对应的指令,进行用户逃离VR的操作。由于本发明实施例当用户沉浸在VR场景中时,直接根据用户眼睛眨眼间隔值确定用户是否需要逃离VR场景,而不需要用户采用辅助设备进行指令的发出或采用双手进行设定动作的操作以便识别,从而提供了用户体验度及沉浸感。
-
-
-
-
-
-
-
-
-