一种基于眼动跟踪的沉浸式流场可视化人机交互方法

    公开(公告)号:CN113253851A

    公开(公告)日:2021-08-13

    申请号:CN202110803863.2

    申请日:2021-07-16

    Abstract: 本发明提供了一种基于眼动跟踪的沉浸式流场可视化人机交互方法,通过眼动仪与VR头盔相结合进行人机交互,包括:步骤1、获取眼球注视方向向量与头盔旋转信息,将眼注视方向变换到世界坐标系下;步骤2、对世界坐标系下的眼球注视方向依次进行眼动校准以及眼动去抖;步骤3、根据VR头盔获取头盔凝视方向向量,将头盔凝视方向指向目标对象,判断眼动去抖后的眼球注视方向是否与头盔凝视方向相同,不同则移动视线进入步骤1;相同则触发交互操作,完成交互。本发明能够快速且随着使用不断优化的完成眼动校准;同时能够实现不同状态下的眼动跟踪去抖,提高交互沉浸感;仅依靠眼睛和头部转动就能完成人机交互中的交互确认操作,降低误操作率。

    一种基于眼动跟踪的沉浸式流场可视化人机交互方法

    公开(公告)号:CN113253851B

    公开(公告)日:2021-09-21

    申请号:CN202110803863.2

    申请日:2021-07-16

    Abstract: 本发明提供了一种基于眼动跟踪的沉浸式流场可视化人机交互方法,通过眼动仪与VR头盔相结合进行人机交互,包括:步骤1、获取眼球注视方向向量与头盔旋转信息,将眼注视方向变换到世界坐标系下;步骤2、对世界坐标系下的眼球注视方向依次进行眼动校准以及眼动去抖;步骤3、根据VR头盔获取头盔凝视方向向量,将头盔凝视方向指向目标对象,判断眼动去抖后的眼球注视方向是否与头盔凝视方向相同,不同则移动视线进入步骤1;相同则触发交互操作,完成交互。本发明能够快速且随着使用不断优化的完成眼动校准;同时能够实现不同状态下的眼动跟踪去抖,提高交互沉浸感;仅依靠眼睛和头部转动就能完成人机交互中的交互确认操作,降低误操作率。

    一种沉浸式流场可视化参数的配置方法及装置

    公开(公告)号:CN112506348A

    公开(公告)日:2021-03-16

    申请号:CN202011480361.2

    申请日:2020-12-15

    Abstract: 本申请公开了一种沉浸式流场可视化参数的配置方法及装置,该方法包括:确定Qt界面上流场可视化参数配置的第一图像数据,将所述第一图像数据转换为VTK平面的第二图像数据,将所述第二图像数据发送给虚拟现实设备;确定用户凝视所述VTK平面的凝视数据,根据所述凝视数据确定用户凝视所述VTK平面的第一位置,将所述第一位置转化为所述Qt界面的坐标以及控制所述Qt界面的界面光标移动到所述坐标;确定用户手势信息,并在所述手势信息为确认手势时,生成并向所述Qt界面发送鼠标点击控制指令,并根据所述鼠标点击控制指令控制流场可视化参数的配置。本申请解决了现有技术中用户沉浸感以及分析效率较差的技术问题。

Patent Agency Ranking