-
公开(公告)号:CN111324272A
公开(公告)日:2020-06-23
申请号:CN202010201806.2
申请日:2020-03-20
Applicant: 昆明理工大学
IPC: G06F3/0487 , G06F3/0482 , G06F3/0484
Abstract: 本发明涉及一种柔性界面的基于“扭曲和弯曲”的交互方法,属于计算机人机交互技术领域。该方法包括:弯曲输入设备原型的构建;对弯曲度进行识别;自定义弯曲交互手势;最后设计弯曲控制的交互界面,并通过测试验证“扭曲和弯曲”手势的精准性和准确性。本发明以optitrack为工具,依据弯曲度检测和弯曲手势手势检测设计出来一套新的交互方法,丰富了多通道人机交互,对计算机人机交互的发展具有重大的意义。
-
公开(公告)号:CN119963359A
公开(公告)日:2025-05-09
申请号:CN202510023468.0
申请日:2025-01-07
Applicant: 昆明理工大学
IPC: G06Q50/00 , G06F16/334 , G06F16/35 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于社会剧场交互模型的虚拟场景交互控制方法,涉及深度学习以及人机交互领域。该方法包括:步骤1:预先对社会剧场交互模型进行定义并收集具体虚拟场景的文本数据集进行训练;步骤2:将已训练的社会剧场交互模型接入到具体虚拟场景中,并对场景成员资源进行初始分配得到其资源结构信息;步骤3:获取虚拟交互场景中用户的自然语言描述序列历史信息,并将其划分为场域信息和行动信息,作为社会剧场交互模型的输入,输出为相应用户的资源变化量;步骤4:社会剧场交互模型根据输出进行累计资源计算,得到新的资源结构,根据资源数值动态控制用户的行为。
-
公开(公告)号:CN119887671A
公开(公告)日:2025-04-25
申请号:CN202411947595.1
申请日:2024-12-27
Applicant: 昆明理工大学
IPC: G06T7/00 , G06V10/44 , G06N3/0464
Abstract: 本发明公开了一种脑肿瘤病灶区域智能检测方法,包括:步骤S1,获取脑肿瘤数据集,并对其进行预处理;步骤S2,基于现有的YOLOv8网络进行优化,优化后得到改进后的脑肿瘤病灶区域智能检测模型;步骤S3,基于预处理后的数据集,训练并验证改进后的脑肿瘤病灶区域智能检测模型;步骤S4,利用改进后的脑肿瘤病灶区域智能检测模型检测视频或图片,输出检测后的视频或图片。本发明解决了传统人工检测中因主观因素导致的误诊和漏诊问题。
-
公开(公告)号:CN115951805A
公开(公告)日:2023-04-11
申请号:CN202310038215.1
申请日:2023-01-09
Applicant: 昆明理工大学
IPC: G06F3/04812 , G06F17/16
Abstract: 本发明公开了一种基于卡尔曼滤波优化的光标目标点预测方法,包括以下步骤:获取屏幕中的所有任务点坐标及光标初始坐标,监测光标活动轨迹并获取光标的原始轨迹数据;基于卡尔曼滤波模型及光标的原始轨迹数据,获取光标的修正位置坐标;根据光标的修正位置坐标优化光标活动轨迹,并将优化后的光标活动轨迹导入到目标预测模型中进行目标点预测,获取预测目标点的位置坐标;将预测目标点的位置坐标导入到光标的移动程序中,实现光标的快速交互。本发明通过优化光标轨迹进而预测目标点并应用于光标的移动程序,能够实现光标的快速交互,从而有效减少用户操作时间,降低光标移动次数,提高光标交互的便捷性与高效性。
-
公开(公告)号:CN113873437B
公开(公告)日:2022-09-16
申请号:CN202111143031.9
申请日:2021-09-28
Applicant: 昆明理工大学
Abstract: 本发明公开了一种基于现实空间的指向性区域划分技术方法,涉及超宽带技术领域,通过optitrack动捕镜头和motive软件记录用户进行指向性任务时的空间坐标数据获取反馈数据;提取原始数据中目标端坐标,以及指向端坐标进行数据预处理;对指向角度范围、指向落点与目标距离进行权重分析;将期望及协方差矩阵权重值作为输入,对应的区域划分作为输出的神经网络模型,得到了基于指向分布的区域划分算法;利用该算法提出基于指向性操作的空间划分技术;本发明通过分析用户真实的指向性选择任务所映射的空间热区,并结合上下文信息的主动区域划分策略,通过对区域的合理划分,使用户可以自然的进行指向性操作,用户只需要指向设备的区域就可以选中设备进行操作。
-
公开(公告)号:CN113392982A
公开(公告)日:2021-09-14
申请号:CN202110719812.1
申请日:2021-06-28
Applicant: 昆明理工大学
IPC: G06N20/00
Abstract: 本发明公开了一种层链式多标签学习模型,涉及样本数据处理技术领域,包括以下步骤:预先对多标签学习任务的数据集进行分析,并将数据标签集中的标签进行层链划分;基于层链划分,进行将第一层链的标签输入分类器模型进行学习与预测,得到第一层的预测标签信息;将第一层链的标签组合并将其作为新的特征对数据集样本维度进行扩充;将扩充后的数据集放入第二层链的分类器模型进行进一步的学习与预测。本发明通过对标签集中标签的层链划分操作,能够更好地考虑与挖掘标签间的潜在关联性,对于复杂多标签任务以及标签关联性高的多标签任务能够对数据和标签信息进行更为充分的理解与学习。
-
公开(公告)号:CN113391754A
公开(公告)日:2021-09-14
申请号:CN202110721816.3
申请日:2021-06-28
Applicant: 昆明理工大学
IPC: G06F3/0488 , G06F3/0482
Abstract: 本发明涉及交互技术领域,具体涉及一种基于LeapMotion传感器的腕部转动菜单交互技术;包括以下步骤:首先,通过LeapMotion传感器获取手腕实时转动数据;其次,将转动角度反映到对菜单项目的遍历;最后,通过伸出手指类型实现对当前被遍历的菜单项目的选择;本发明结合当前成熟的传感器技术,易于装配和携带,在基于直接触摸条件不变的基础上增强了菜单的扩展能力,在一些交互场景下极大的甚至无需移动即可实现连续性交互,增加了触摸交互的自由度,为人机交互任务提高了交互效率加强了交互表现力以及增加了交互趣味性。
-
公开(公告)号:CN109213470B
公开(公告)日:2021-06-18
申请号:CN201811055720.2
申请日:2018-09-11
Applicant: 昆明理工大学
IPC: G06F3/16 , G06F3/0487
Abstract: 本发明涉及一种基于语音识别的光标控制方法,属于光标控制领域。它包括以下步骤:创建语音标记词库、方向命令词库与操作命令词库;创建语音命令监听器;将屏幕分区并关联语音标记词;用户说出网格标记词则将光标移动至网格区域中;以光标位置为原点生成直角坐标系,并关联刻度标记词;用户说出刻度标记词,则将光标移动至刻度点;用户说出方向命令词,则获取该方向上的目标位置,并将光标移动到该位置;用户说出操作命令词,则进行相关系统操作。本发明注重给无法正常使用鼠标的用户必须找到可用于替代鼠标的光标控制方法,使用户不需要对智能设备进行手动物理按键操作,只需以语音命令的形式即可实现对智能设备的操作。
-
公开(公告)号:CN112699194A
公开(公告)日:2021-04-23
申请号:CN202011598683.7
申请日:2020-12-29
Applicant: 昆明理工大学
IPC: G06F16/29 , G06F3/0488 , G06F3/0484 , G06Q10/04 , G06T3/40
Abstract: 本发明公开了一种地图缩放场景下的智能地图目标预测气泡呈现方法,包括以下步骤:预先获取源数据信息搭建随机森林模型并作为预测模型;获得用户在地图缩放场景使用过程中的触摸数据,将所述触摸数据作为随机森林模型的输入运行获取输出结果;将获取输出结果以气泡的形式展示在地图缩放场景中以供用户点击选取。本发明提升地图类目标选择功能的易用性,降低用户使用智能设备地图目标搜索的门槛,极大程度优化不同年龄段用户的使用体验,而且智能地图目标预测气泡的引入,能够减少用户操作次数,无论是搜索单个目标还是连续搜索多个目标,都可以提高交互效率,减少在搜索界面和地图界面的切换次数,能够给予用户连续流畅的交互体验。
-
公开(公告)号:CN112686118A
公开(公告)日:2021-04-20
申请号:CN202011553693.9
申请日:2020-12-24
Applicant: 昆明理工大学
Abstract: 本发明公开了一种基于自适应界面调整用户情绪的交互模型,涉及界面调整技术领域,包括以下步骤:预先通过Face++调用摄像头获取静态图片,将获取的用户面部关键点的值通过五维情绪模型进行转换,确定面部关键点的值对应的面部情绪的维度值;构件神经网络模型,以维度值为输入网页的元素值为输出,获取面部情绪的维度值与网页的元素值的对应关系值;基于获取的对应关系值,调节用户情绪的自适应界面。本发明通过实时检测用户当前的情绪状态,针对用户不同的情绪状态,页面中的各个因素会有不同的变化,分别为每个用户调整界面达到适应他当前的情绪,以此来调节改善用户的情绪,最终帮助用户的情绪趋向于一个平稳的状态。
-
-
-
-
-
-
-
-
-