-
公开(公告)号:CN112181133B
公开(公告)日:2024-05-07
申请号:CN202010857334.6
申请日:2020-08-24
Applicant: 东南大学
IPC: G06F3/01 , G06F3/04883
Abstract: 本发明公开了一种基于静态和动态手势交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有静态和动态手势交互任务不能进行量化评估的技术问题,其技术方案要点是对用户交互任务进行分析得到用户交互行为,对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于静态和动态手势的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计交互模型,为在自然人机交互系统下进行静态和动态手势交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN112181133A
公开(公告)日:2021-01-05
申请号:CN202010857334.6
申请日:2020-08-24
Applicant: 东南大学
IPC: G06F3/01 , G06F3/0488
Abstract: 本发明公开了一种基于静态和动态手势交互任务的模型评估方法及系统,涉及交互任务模型评估技术领域,解决了现有静态和动态手势交互任务不能进行量化评估的技术问题,其技术方案要点是对用户交互任务进行分析得到用户交互行为,对用户交互行为进行研究确定用户基本动素。为用户基本动素配置交互规则,同时分析测算用户基本动素的交互时间以及系统动作时间,根据交互时间、交互规则和系统动作时间预估完成用户交互任务的总时间,最后根据总时间对交互任务进行评估。使得基于静态和动态手势的交互任务实现了量化评估,从而帮助相关从业人员更科学地设计交互模型,为在自然人机交互系统下进行静态和动态手势交互任务的人员提供更流畅舒适的交互体验。
-
公开(公告)号:CN119150069A
公开(公告)日:2024-12-17
申请号:CN202411181378.6
申请日:2024-08-27
Applicant: 东南大学
IPC: G06F18/24 , G06F18/213 , G06N3/0464 , G06N3/0442 , G06N3/045
Abstract: 本发明公开了一种面向复杂任务情境的多层级人机交互意图识别方法,涉及人机交互意图识别技术领域,解决了复杂任务情境下的多层级人机交互意图识别准确率不高以及和对任务阶段解释性低的技术问题,其技术方案要点提出了一种适用于复杂任务情境的多层级意图识别框架,将任务分析方法和机器学习方法相结合,既具备对于人的行为和上下文信息的敏感性,又具备可解释性。其输入数据为容易捕获的人的行为数据和机器传感器能够采集的态势数据,具有不干扰人机系统工作进程的优势和可操作性。通过同时融合人的行为、环境和任务上下文特征,从底层数据逐层向上识别人的多层级意图,实现了系统对人的真实意图更全面的理解,有效解决现有方法从单一层级、仅根据人的行为特征开展意图识别等方面的局限性,提高了多层级意图识别的准确率,同时实现多层级意图的可解释性建模。
-
-
公开(公告)号:CN116820292A
公开(公告)日:2023-09-29
申请号:CN202310667489.7
申请日:2023-06-07
Applicant: 东南大学
IPC: G06F3/04815 , G06F3/04812 , G06F3/01
Abstract: 本发明公开了一种虚拟现实中光标自适应的显示和控制方法,涉及交互界面光标自适应显示技术领域,解决了三维人机界面中光标控制精确度不高、视觉反馈信息不充分的技术问题,其技术方案要点是基于交互目标预测技术,对最终目标控件进行预测,并基于此进行光标形态控制、控件预裸手交互的光标自适应显示渲染以及缩放光标C/D比增益。不仅增强了指向精确度与效率,同时对用户的操作提供即时的视觉反馈,显著提升了用户的使用体验。同时该方法具有较高的通用性,能够很好地迁移至其他三维人机交互的指向技术。
-
公开(公告)号:CN112137622A
公开(公告)日:2020-12-29
申请号:CN202010952851.1
申请日:2020-09-11
Applicant: 东南大学
Abstract: 本发明公开了一种有意识眨眼和无意识眨眼的判断方法及装置,其中判断方法的步骤为:对被试者进行无意识眨眼和有意识眨眼的实验,通过贴敷在被试者眼轮匝肌上的石墨烯传感器采集被试者进行上述有意识眨眼和无意识眨眼时石墨烯阻值变化的电信号,得到被试者无意识眨眼的时间特征的检测范围和峰值特征的检测范围,有意识眨眼的时间特征的检测范围和峰值特征的检测范围;获取被试者非实验状态某单次眨眼时石墨烯阻值变化的电信号,提取获取的电信号的时间特征和峰值特征;根据上步提取的时间特征和峰值特征判断是有意识眨眼和无意识眨眼。本发明不受环境影响,可更加稳定、可靠、准确地判断有意识眨眼和无意识眨眼。
-
公开(公告)号:CN110837792A
公开(公告)日:2020-02-25
申请号:CN201911064467.1
申请日:2019-11-04
Applicant: 东南大学
Abstract: 本发明公开了一种三维手势识别方法及装置,该方法包括:(1)采集静态手势,并根据建立的手部空间坐标系进行手部位置表示;(2)以静态手势的骨节方向信息作为手势识别的观测值特征序列,并对不同角度和位置下的静态手势对应的手势识别观测值特征序列预处理;(3)采用GMM-HMM模型对静态手势对应的观测序列进行识别;(4)根据等待模型对动态手势进行识别;(5)在用户使用时收集用户个体的手势数据,并利用该数据对GMM-HMM模型进行迁移训练,形成针对于每个用户的模型。本发明所述的归一化的方法是在特征序列的基础上来的,它能够在保留完整数据的情况下很方便且准确的实现归一化,使得识别准确率升高。
-
公开(公告)号:CN108459710A
公开(公告)日:2018-08-28
申请号:CN201810127895.3
申请日:2018-02-08
Applicant: 东南大学
IPC: G06F3/01
Abstract: 本发明公开了一种眼动信号控制的交互装置,该装置包括眼动信号检测模块、眼动信号处理模块、功能图标处理模块和控制模块,所述眼动信号检测模块检测到人的眼动信号,由所述眼动信号处理模块进行处理,由所述功能图标处理模块对功能图标进行处理,将处理后的眼动信号和功能图标存储到微处理器中并进行匹配,匹配成功后触发控制模块,实现人机交互。本发明有效规避了用户的注视行为,有较高的准确率,可节省操作时间,直接避免了“米达斯接触”效应的发生,减少了误触发率,显著提高了数字界面的交互效率。
-
公开(公告)号:CN114049800B
公开(公告)日:2024-05-07
申请号:CN202111200398.X
申请日:2021-10-15
Applicant: 东南大学
IPC: G09B5/00
Abstract: 本发明公开了一种混合现实环境下的深度感知实验平台及其实验方法,涉及混合现实设备技术领域,解决了现有的深度感知实验平台不能兼顾虚拟环境和真实环境的距离标定的技术问题,其技术方案要点是配合增强现实设备使用,可以同时看到该平台上的真实标志物以及增强现实设备中显示的虚拟标志物。因为混合现实环境下形成虚拟图像的显示机理和真实世界不同,导致人们对真实物体和虚拟物体的感知距离和其实际与人眼之间的物理距离存在差异。目前尚缺乏一种可以测定真实物体和虚拟物体的物理距离和深度感知距离差异量值的仪器。通过该实验平台记录两者深度感觉相同时的坐标位置差异,从而研究不同视觉影响因素对真实和虚拟物体深度感知差异的影响机制。
-
公开(公告)号:CN112181137B
公开(公告)日:2024-05-03
申请号:CN202010952855.X
申请日:2020-09-11
Applicant: 东南大学
IPC: G06F3/01 , G06F18/213 , G06F18/24 , A61B5/11 , G01R27/02
Abstract: 本发明公开了一种眨眼识别装置、控制装置、识别方法及控制方法,其中眨眼控制的识别装置包括:石墨烯传感器,贴敷在眼轮匝肌上,获取眨眼控制时的石墨烯阻值变化电信号;信号处理模块,提取获取的石墨烯阻值变化电信号的时域特征Y和频域特征S;并计算时域相似度A和频域相似度B;识别模块,若时域相似度A及频域相似度B同时满足设定的条件,则判断眨眼为控制眨眼。本发明通过石墨烯柔性传感器将眨眼时眼轮匝肌的收缩信号转化为石墨烯阻值变化电信号,通过提取人眨眼控制时石墨烯阻值变化电信号的时域特征和频域特征,和先前建立的个人眨眼数据特征库比对,从而实现控制命令。相较于基于图像分析的眨眼控制方法,该方法具有较高的准确性和可靠性。
-
-
-
-
-
-
-
-
-