-
公开(公告)号:CN114883001A
公开(公告)日:2022-08-09
申请号:CN202210570384.5
申请日:2022-05-24
Applicant: 山东海量信息技术研究院 , 济南大学
Abstract: 本发明公开了基于异质信息网络的疾病预测系统,包括:获取模块,其被配置为:获取待预测患者的当前电子病历;疾病预测模块,其被配置为:将待预测患者的当前电子病历,输入到训练后的疾病预测模型中,输出疾病预测结果;其中,疾病预测模型的工作原理为:对待预测患者的当前电子病历进行数据扩充,基于扩充后的数据构建电子病历异质图;在电子病历异质图上,基于元路径的学习表示进行电子病历的嵌入表示,通过注意力机制进行元路径邻居节点的聚合;最终实现对待预测患者的疾病预测。以便准确预测患者是否存在潜在疾病,对患者做出准确地预测。
-
公开(公告)号:CN114842948A
公开(公告)日:2022-08-02
申请号:CN202210776224.6
申请日:2022-07-04
Applicant: 济南大学
Abstract: 本发明公开了一种在线学习按摩定位算法,涉及人工智能技术领域,包括以下步骤:(1)根据自然指向确定按摩候选区域;(2)利用比例选择法的方式在按摩候选区域通过询问交互确定按摩中心点位置、按摩点二维分布模型及按摩区域;(3)在线学习按摩习惯,根据用户的选择区域,更新相关身体部位的两种概率以减少按摩中心点定位时减少人机的交互次数。本发明的有益效果在于可减少用户的记忆和操作负荷,并且用户可以不拘泥一种姿态,可按照自身意愿移动身体,系统会根据记录的按摩区域点与身体关键点的位置关系实现实时跟踪按摩。
-
公开(公告)号:CN113378771B
公开(公告)日:2022-07-26
申请号:CN202110720648.6
申请日:2021-06-28
Applicant: 济南大学
IPC: G06V20/59 , G06V40/18 , G06V10/82 , G06V10/762 , G06V10/764 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明属于计算机视觉技术领域,提供了一种驾驶员状态确定方法、装置、驾驶员监控系统、车辆。该方法包括:获取预设时长内的目标图像帧,判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
-
公开(公告)号:CN114781652A
公开(公告)日:2022-07-22
申请号:CN202210700832.9
申请日:2022-06-21
Applicant: 济南大学
Abstract: 本发明公开了一种基于多模态强化学习的人机协同框架,涉及人机协同技术领域,包括多模态强化学习意图理解模块和任务分配模块,所述的多模态强化学习意图理解模块中机器人通过收集用户的三种模态的特征通过强化学习在反复的迭代中学习用户的行为习惯,进而消除由于不同用户的行为习惯差异而产生的误差,实现对用户的更加鲁棒的意图理解,所述的任务分配模块根据用户的行为获取用户的意图之后指定机器人的动作序列。本发明消除了用户个体之间习惯的差异性而导致的协作效果偏差的问题,具有用户感知实时性好、适应性强的有益效果。
-
公开(公告)号:CN110196642B
公开(公告)日:2022-05-17
申请号:CN201910543153.3
申请日:2019-06-21
Applicant: 济南大学
Abstract: 本发明提出了一种基于意图理解模型的导航式虚拟显微镜,包括多模态输入与感知模块、多模态信息整合模块和交互应用模块;多模态输入与感知模块用于通过传声器获得用户的语音信息,以及获得用户的操作行为;多模态信息整合模块用于将语音信息通过视觉通道信息处理和将操作行为通过触觉通道信息处理,然后将处理后的语音信息和操作行为通过多通道信息整合,完成显微镜和用户之间的交互。本发明通过多模态信息获取和整合,利用简单的传感元件,加入了多种模态的信号输入和智能化感应技术,在保证数字显微镜优点的基础上,让广大普通和贫困中学学生也能有条件进行显微镜的学习,增加对微观世界的认知感受,和体验智能显微镜。
-
公开(公告)号:CN114093028A
公开(公告)日:2022-02-25
申请号:CN202111382546.4
申请日:2021-11-19
Applicant: 济南大学
Abstract: 本发明提供了一种基于意图分析的人机协同方法、系统及机器人,方法包括获取用户的多种输入模态;提取模态各自的意图特征,形成模态对应的子意图集,计算对应的概率值;提取子意图中每一模态的意图,并将多个模态进行组合,基于概率值计算用户意图概率;将用户意图概率排序靠前的N个组合与意图数据库进行匹配,得到用户意图;机器人基于得到的用户意图,与用户互动,进行人机协同操作。本发明通过对用户的多种输入模态,提取出各模态的意图特征,通过意图数据库的意图匹配进行柔性映射,计算出各个行为与各个意图间的映射概率,并最终通过意图间的互补来确定真实意图,基于所述真实意图,调用机器人,准确的进行人机协同操作。
-
公开(公告)号:CN109999708B
公开(公告)日:2021-05-04
申请号:CN201910248740.X
申请日:2019-03-29
Applicant: 济南大学
IPC: B01F13/00
Abstract: 本发明实施例公开了基于虚实融合实验的搅拌棒套件及其使用方法,搅拌棒套件包括搅拌棒和设置在搅拌棒内的搅动传感器,所述搅动传感器用于获取搅拌棒的运动状态,并将运动状态转化为电信号,发送给控制终端。方法包括根据搅动传感器内磁场的方向和实验操作规范,确定感应电动势的正方向;用所述搅拌棒搅拌液体,测量模块获取导体棒产生的感应电动势,并将该感应电动势传输至控制终端;根据感应电动势和确定的正方向,控制终端得到搅拌方向和搅拌速度;判断所述搅拌方向和搅拌速度是否均符合操作规范,并在不符合操作规范时,给出提示。通过本发明实施例的搅拌棒套件,在AR化学实验中,感知搅拌操作过程,实现AR实验中的人机交互。
-
公开(公告)号:CN112099633A
公开(公告)日:2020-12-18
申请号:CN202010977728.5
申请日:2020-09-16
Applicant: 济南大学
IPC: G06F3/01 , G06F3/0346 , G10L15/18
Abstract: 本发明公开一种多模态感知的智能实验方法及装置。根据实验内容构建实验意图集;建立语音意图数据库;获取语音信息,通过计算语音信息与所述语音意图数据库中语音数据的相似度,取相似度最大的语音数据所对应的所述实验意图集中元素作为语音目标意图;获取触觉信息,根据具体的实验过程确定所述触觉信息所反映的触觉目标意图;通过多模态信息融合来融合所述语音目标意图和触觉目标意图获取目标意图;对所述目标意图进行信任度评价,如果信任度评价符合要求,执行所述目标意图对应的实验路径进入下一个实验情节,如果信任度评价不符合要求,请求用户增强或者补充相应信息;对实验情节分析评价。本发明能准确获取用户意图,并根据意图进行实验。
-
公开(公告)号:CN109326166B
公开(公告)日:2020-11-06
申请号:CN201811477671.1
申请日:2018-12-05
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了一种虚拟显微镜实物套件及其应用,属于实验设备领域。该虚拟显微镜实物套件包括:显微镜本体模型以及设置在显微镜本体模型上的螺旋传感器、压力传感器和载玻片位置传感器;FPGA芯片和本地显示设备;所述螺旋传感器、压力传感器和载玻片位置传感器分别与FPGA芯片连接;所述FPGA芯片通过有线或无线方式与本地显示设备进行通讯。一方面,本发明利用虚拟融合技术,对用户观测结果进行信息增强,有利于用户随机探索实验现象的过程、机理与原理;另一方面,本发明通过实物操作,得到了真实显微镜条件下的操作体验,帮助实验人员掌握了相关实验技能。
-
公开(公告)号:CN111754849A
公开(公告)日:2020-10-09
申请号:CN202010552154.7
申请日:2020-06-17
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了一种识别物体连接关系的系统,所述的系统包括:基本单元,包括若干模具本体,任一模具本体上至少设有一携带第一身份码的感应口;连接单元,包括依次串联的感应头和信号发生装置,所述感应头携带第二身份码,在与感应口实现感应连接后,通过信号发生装置将第一身份码和第二身份码发送至接收单元;接收单元,包括信号接收装置,用于接收信号发生装置发送的信息并转送至计算单元;计算单元,用于将接收的信息识别为物体的连接关系并转换为虚拟的图像实时显示。该方案实现了物体连接关系的直接识别和显示,提高了实验操作的效率。此外,基于上述系统,本申请还提供了一种识别方法。
-
-
-
-
-
-
-
-
-