-
公开(公告)号:CN109408037A
公开(公告)日:2019-03-01
申请号:CN201811066599.3
申请日:2018-09-13
Applicant: 昆明理工大学
Abstract: 本发明涉及一种非接触的基于“手+脸表情+头部姿态”的混合控制方法,属于计算机人机交互中的交互手势领域。本发明包括步骤:首先进行人脸关键点检测、头部姿态的状态、手部手势的识别;然后自定义面部手势、头部手势、手势交互命令;最后设计混合控制方法交互界面,并验证混合控制手势的精准性和准确性。本发明以Face++平台、Leap Motion为工具,依据Face++平台的人脸关键点检测和Leap Motion手势检测设计出来一套新的混合交互手势,丰富了多通道人机交互,对计算机人机交互的发展具有重大的意义。
-
公开(公告)号:CN109407946A
公开(公告)日:2019-03-01
申请号:CN201811056705.X
申请日:2018-09-11
Applicant: 昆明理工大学
IPC: G06F3/0487 , G06F9/451
Abstract: 本发明涉及一种基于语音识别的图形界面目标选择方法,属于语音目标选择领域。它包括以下步骤:创建语音标记词库、标记点;将标记点与标记词关联;用户说出标记词且持续发声,生成以对应标记点为圆心,半径随用户持续发声而不断增加的圆;将圆分成若干圆弧段;将圆弧段与标记词关联;用户说出标记词,以对应圆弧段的中心点为圆心,以与相邻圆弧段的距离为半径,生成一个圆;将圆分成若干区域;将区域与标记词关联;用户说出标记词,以对应区域内的中心点为选择点进行目标选择。本发明注重给用户直观的视觉反馈,使用户清楚的知道什么时候该说什么命令,而无需再让用户进行多次语音命令的学习,从而大大方便了用户使用智能设备。
-
公开(公告)号:CN119941820A
公开(公告)日:2025-05-06
申请号:CN202510007012.5
申请日:2025-01-03
Applicant: 昆明理工大学
IPC: G06T7/593 , G06N3/0895 , G06N3/045
Abstract: 本发明公开了基于自监督学习的复杂天气场景图像单目深度估计方法,包括:步骤S1,获取数据集,按比例划分为训练集、验证集和测试集,并对数据集进行预处理;步骤S2,构建基于多尺度注意力自监督单目深度估计模型;步骤S3,基于预处理后的数据集,训练并验证自监督单目深度估计模型;步骤S4,利用训练后的自监督单目深度估计模型对测试集进行测试,输出准确而清晰的深度图。本发明实现了对复杂天气场景预测。
-
公开(公告)号:CN119829941A
公开(公告)日:2025-04-15
申请号:CN202411884527.5
申请日:2024-12-19
Applicant: 昆明理工大学
IPC: G06F18/20 , G06F18/10 , G06F18/22 , G06F30/27 , G06F123/02 , G06F119/12
Abstract: 本发明公开了一种动态目标选择下的时间预测建模方法。该方法包括以下步骤:搭建动态目标选择实验平台,形式化动态目标选择任务,明确目标初始间距、宽度、速度等核心变量及实验参数;分析动态目标选择任务的关键影响因素,并提出时间预测假设,涵盖目标参数及其交互作用的具体影响;结合静止和运动阶段的特性,对现有理论模型进行扩展,建立综合时间预测模型;通过实验平台设置不同目标条件,招募被试者完成动态目标选择任务,采集任务完成时间数据,对实验数据进行分析,验证所提假设,并拟合时间预测模型,为动态交互系统中目标参数的设置和设计优化提供科学依据。本发明方法适用于动态交互场景,有助于提升系统设计合理性和用户操作效率。
-
公开(公告)号:CN119806376A
公开(公告)日:2025-04-11
申请号:CN202411881438.5
申请日:2024-12-19
Applicant: 昆明理工大学
IPC: G06F3/04883 , G06F3/0484 , G06F3/01 , G06F18/15 , G06F18/213 , G06F18/25 , G06F18/22 , G06F18/27 , G06F18/214 , G06F18/21 , G06N3/045 , G06N3/0464 , G06N3/0442 , G06N3/084 , G06N3/0985 , G06F123/02
Abstract: 本发明公开了一种基于数据驱动的深度学习方法,旨在通过预测并修正触摸位置偏移,涉及人机交互领域,针对该领域现有工作存在的触摸屏缺乏高精度输入和用户差异性问题,本发明提出了一种融合用户特征的深度学习模型,来更精准地预测触摸位置偏移,从而提高触摸操作的准确性和效率,首先,为了解决用户差异性,将用户特征纳入考虑,探讨了用户不同年龄层、性别、身体质量指数、手指触摸面积以及眼动特征等因素对触摸精度的影响,其次,把它们融合到优化触摸精度的深度学习模型中,学习融合用户特征的触摸输入模型,这样的综合考虑使得模型能够更好地适应不同用户的特点,提高了模型的个性化能力。
-
公开(公告)号:CN119380155A
公开(公告)日:2025-01-28
申请号:CN202411271105.0
申请日:2024-09-11
Applicant: 昆明理工大学
IPC: G06V10/80 , G06V40/16 , G06V40/10 , G06V10/46 , G06V10/774 , G06V10/82 , G06V10/764
Abstract: 本发明涉及一种基于面部表情和身体姿态的多模态情感识别方法。具体如下:首先,对视频帧的人体关键点坐标进行提取,分别以面部关键点坐标相对于自然状态下的变化值,以及身体姿态关键点坐标作为面部表情和身体姿态的原始信息特征,从而降低数据的维度和计算成本。其次,使用快速傅里叶变化捕捉输入数据的周期变化,将一维数据转化为二维数据,再使用二维卷积核分别对两组特征进行时空特征编码和提取,以加强数据的表征能力。最后,使用融合算法动态分配各模态权重,以获得最佳融合效果。通过加强对时空特征的提取,能够有效融合多模态特征,能够有效提高情感识别的准确性和稳定性。
-
公开(公告)号:CN115935999A
公开(公告)日:2023-04-07
申请号:CN202310027563.9
申请日:2023-01-09
Applicant: 昆明理工大学
IPC: G06F40/295 , G06F16/35 , G06N3/0442 , G06N3/084 , G06F40/30
Abstract: 本发明提出了一种中医案例的命名实体识别方法、系统、设备及介质,涉及信息处理领域。该方法包括:首先将包括中医案例信息的目标文本送入LEBERT预训练模型中,利用预置词汇信息对命名实体进行边界划分,然后再利用BILSTM神经网络模型对命名实体进行标签分属处理,最后再利用CRF层对BILSTM神经网络模型输出的预测标签按照预置约束条件进行分类处理,用以提高目标文本命名实体识别的准确率。即其通过对命名实体识别的步骤进行优化,可以用以解决中医案例在命名实体识别时由于存在实体边界模糊、命名实体间词义相近但分属不同、实体歧义性等问题而造成的实体识别困难的问题。
-
公开(公告)号:CN115906857A
公开(公告)日:2023-04-04
申请号:CN202310028057.1
申请日:2023-01-09
Applicant: 昆明理工大学
IPC: G06F40/295 , G06F40/289 , G06N3/049 , G06N3/08
Abstract: 本发明公开了一种面向中医文本的命名实体识别方法,具体涉及一种基于词汇增强的中医文本命名实体识别方法,包括:首先,收集中医文献通过数据清洗、标注,构建中医领域数据集;之后,引入中医领域词典;然后,输入到输入表示层的嵌入层和位置编码,嵌入层采用扁平晶格结构,在生成字符向量时,结合领域词典同时生成字符对应的单词向量,位置编码对不同字符进行相对位置编码;接着,送入上下文编码层,通过Transformer编码器和TCN模型获取文本的全局和局部特征;最后,输出解码层CRF模型对融合后的特征向量进行解码,得到全局最优的标签序列。本发明解决了中医实体过长引发的长记忆丢失和分词错误带来的噪声问题,使得中医命名实体识别任务更精准高效。
-
公开(公告)号:CN114861534A
公开(公告)日:2022-08-05
申请号:CN202210453889.3
申请日:2022-04-24
Applicant: 昆明理工大学
Abstract: 本发明属于计算智能和视觉认知技术领域,公开了一种对视觉认知反应数据的处理方法、系统、设备及介质,所述基于最优选择的花朵算法对视觉认知反应数据的处理方法包括:将视觉认知中反应时数据的ex‑Gaussian模型的负对数似然值作为目标函数;使用改进的基于花朵授粉算法对目标函数进行优化,得出最佳函数适应度值对应的参数μ,σ,τ;利用上述三个参数拟合ex‑Gaussian模型,进行视觉认知中反应时数据的认知本发明进一步加强了算法的寻优能力,提升了算法的寻优性能,能够更好地应用于ex‑Gaussian模型参数求解问题,以便更准确地探明三个参数和视觉认知过程中各个阶段的对应关系。
-
公开(公告)号:CN113448435A
公开(公告)日:2021-09-28
申请号:CN202110651758.1
申请日:2021-06-11
Applicant: 昆明理工大学
Abstract: 本发明公开了一种基于卡尔曼滤波的眼控光标稳定方法,涉及眼睛交互技术领域,包括以下步骤:通过预先基于眼动仪,将屏幕划分为若干区域,获取每个区域内的眼睛凝视偏差,并将双眼原始眼动轨迹数据通过加权平均转化为单一的屏幕坐标位置;将获取的屏幕坐标位置导入调整好超参数的卡尔曼滤波模型中获取修正后的位置坐标;通过在光标移动程序中导入修正后的位置坐标,实现眼控光标稳定悬停与平滑移动。本发明基于卡尔曼滤波模型,实现实时眼动轨迹数据到屏幕坐标位置的转换,通过前一时刻的光标位置进行先验位置估计,实时修正眼睛凝视位置,减少眼控光标的不自主抖动,使得眼控光标可以达到像鼠标一样的稳定悬停和平滑移动效果。
-
-
-
-
-
-
-
-
-