-
公开(公告)号:CN111214227A
公开(公告)日:2020-06-02
申请号:CN202010070511.6
申请日:2020-01-21
Applicant: 中国人民解放军空军工程大学
IPC: A61B5/0476 , A61B5/16 , A61B5/00
Abstract: 本发明公开了一种人机交互中用户操作意图和认知状态的识别方法,该方法包括:采集用户在人机交互过程中的眼动特征数据和脑电信号数据;对采集的数据进行预处理后分别划分为训练集和测试集;采用训练集训练SVM分类器,再用优化后的分类器对测试集进行分类,获得对应的操作意图和认知状态。本发明能够识别交互过程中的操作需求,为界面的自适应调整提供依据。同时,能够判断交互过程的认知状态,确保交互任务完成的可靠性。
-
公开(公告)号:CN109558005A
公开(公告)日:2019-04-02
申请号:CN201811330359.X
申请日:2018-11-09
Applicant: 中国人民解放军空军工程大学
IPC: G06F3/01
Abstract: 本发明属于人机工程学领域,公开了一种自适应人机界面配置方法,包括:基于脑电信号获取用户在人机交互过程中的认知负荷;基于眼动特征获取用户在人机交互过程中的认知水平,基于眼动特征获取用户在人机交互过程中的认知状态,基于眼动特征获取用户在人机交互过程中的操作意图,获取用户在人机交互过程中的交互时序;基于粗集理论为用户自适应的配置人机界面,能够对人机界面进行动态调整。
-
公开(公告)号:CN109558005B
公开(公告)日:2023-05-23
申请号:CN201811330359.X
申请日:2018-11-09
Applicant: 中国人民解放军空军工程大学
IPC: G06F3/01
Abstract: 本发明属于人机工程学领域,公开了一种自适应人机界面配置方法,包括:基于脑电信号获取用户在人机交互过程中的认知负荷;基于眼动特征获取用户在人机交互过程中的认知水平,基于眼动特征获取用户在人机交互过程中的认知状态,基于眼动特征获取用户在人机交互过程中的操作意图,获取用户在人机交互过程中的交互时序;基于粗集理论为用户自适应的配置人机界面,能够对人机界面进行动态调整。
-
公开(公告)号:CN111290575A
公开(公告)日:2020-06-16
申请号:CN202010070514.X
申请日:2020-01-21
Applicant: 中国人民解放军空军工程大学
Abstract: 本发明公开了一种防空反导武器的多通道交互控制系统,包括:眼动交互控制模块和手势交互控制模块;眼动交互控制模块:基于眼球的生理模型,通过眼动追踪仪获取眼睛对应的图像学参数,利用眼动记录和眼动控制得到实时注视点位置;手势交互控制模块:利用骨骼跟踪法进行手势识别、通过人体坐标映射实现计算机屏幕上光标的位置显示和跟踪,通过特定的映射关系将用户的手势与计算机的鼠标操作指令进行匹配对应,使手势代替鼠标实现操作控制。本发明能够减少由于相同设备的长时间单通道控制而导致的工作负载,精神压力和疲劳;从而不仅提高了作战效率,也保证了交互过程的自然性和可靠性。
-
-
-