一种具有意图理解功能的交互式智能容器

    公开(公告)号:CN110286835B

    公开(公告)日:2022-06-17

    申请号:CN201910548006.5

    申请日:2019-06-21

    Applicant: 济南大学

    Abstract: 本发明提出了一种具有意图理解功能的交互式智能容器,包括感知模块、识别模块、意图融合模块和交互应用模块;感知模块用于获取智能容器的触觉信息以及通过语音输入输出设备获取语音信息。识别模块用于将输入的触觉信息和语音信息表示成是三元组,然后将三元组和数据库信息进行比对得出五元组的输出;意图融合模块采用类比推理的方式,得到用户的准确意图,并纠正教学导航。交互应用模块根据用户的意图呈现不同的实验效果,本发明设计了一种具有意图理解功能的交互式智能容器,以及研究适用于化学实验的多模态融合模型与算法,形成多模态感知的导航式虚实融合智能实验系统。本发明采用触觉信息和语音信息的意图融合,使人机交互更加自然。

    一种基于场景感知的人机协同方法、系统及机器人

    公开(公告)号:CN114092791A

    公开(公告)日:2022-02-25

    申请号:CN202111382548.3

    申请日:2021-11-19

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于场景感知的人机协同方法、系统及机器人,所述方法包括机器人通过场景感知确定人的意图,所述场景感知包括语音识别、手势识别以及周期性场景感知识别;基于所述意图,关联对应的活动,并通过数据库获取所述活动包含的子任务集合;在所述子任务集合未完成时,计算子任务对应的联合熵,基于所述联合熵的取值,将所述子任务分配至人或机器完成。本发明通过场景感知获取人的意图,将意图通过数据库对应的任务细化,在根据人机协同算法协助完成人想做的事情,高效的协助人及时完成任务。

    一种双支智能实验试管套件及其应用

    公开(公告)号:CN109550476B

    公开(公告)日:2021-03-26

    申请号:CN201811477701.9

    申请日:2018-12-05

    Applicant: 济南大学

    Inventor: 冯志全 彭群生

    Abstract: 本发明提供了一种双支智能实验试管套件及其应用,属于实验设备领域。该双支智能实验试管套件包括至少两支实验试管模型,在每个所述实验试管模型的外壁上均设置有电子芯片和压力传感器,每个压力传感器分别与电子芯片的不同端口进行电连接;所述压力传感器用于采集实验材料的名称、温度、体积、浓度以及交互行为;所述电子芯片与计算机进行通讯。本发明采用传感器和电子芯片技术,采用虚实融合方法,一个容器套件可以“盛装”不同实验材料,具有低成本、多功能、易操作等优势;利用本发明不仅可以感知用户操作态势(用户选择),而且可以感知容器模型与实验材料态势(容器位置与倾斜度,材质在容器内的真实感仿真效果),实现了实验的智能化。

    一种基于视觉感知的虚拟显微镜及其应用

    公开(公告)号:CN109495724B

    公开(公告)日:2020-12-29

    申请号:CN201811477793.0

    申请日:2018-12-05

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种基于视觉感知的虚拟显微镜及其应用,属于实验设备领域。该基于视觉感知的虚拟显微镜包括:显微镜本体模型以及设置在所述显微镜本体模型上的转动传感器、远程通信模块、显示器、相机、电子芯片;计算与显示设备;所述转动传感器、远程通信模块、显示器、相机分别与所述电子芯片连接;所述远程通信模块能够与计算与显示设备进行通讯。一方面,本发明利用虚拟融合技术,对用户观测结果进行信息增强,有利于用户随机探索实验现象的过程、机理与原理;另一方面,本发明通过实物操作,得到了真实显微镜条件下的操作体验,帮助实验人员掌握了相关实验技能。

    一种基于老年人行为特征的老年人行为识别检测方法

    公开(公告)号:CN112101235A

    公开(公告)日:2020-12-18

    申请号:CN202010977729.X

    申请日:2020-09-16

    Applicant: 济南大学

    Abstract: 本发明公开一种基于老年人行为特征的老年人行为识别检测方法,包括:在老年人身体上佩戴加速度传感器,令老年人做指定动作;通过Kinect设备和所述加速度传感器进行数据采集,通过Kinect设备获取动作视频,所述加速度传感器获取身体加速度数据;从所述动作视频提取动作帧;以第一特征提取通道提取所述动作帧的空间特征和时间特征;以第二特征提取通道,提取所述身体加速度数据的数值特征和时间特征;将所述第一特征提取通道和第二特征提取通道的输出结果通过前馈神经网络融合获得目标结果。本发明利用老年人行为特征与年轻人行为特征在时间上的区别能识别老年人行为,而且通过对动作视频和身体加速度数据特征来进行行为识别,互为补充使得识别更加准确。

    一种面向老年陪护机器人的意图理解方法和系统

    公开(公告)号:CN112101219A

    公开(公告)日:2020-12-18

    申请号:CN202010970662.7

    申请日:2020-09-15

    Applicant: 济南大学

    Abstract: 本发明提出了一种面向老年陪护机器人的意图理解方法和系统,该方法包括:实时获取老年人的手势图像和姿态信息,对手势图像和姿态信息均进行图像分割分别形成手势数据集和姿态数据集;将手势数据集输入训练好的神经网络模型进行手势识别得到手势识别概率集、将姿态数据集输入训练好的隐马尔可夫模型进行姿态识别得到姿态识别概率集;基于混淆矩阵的融合算法将手势识别概率集和姿态识别概率集进行意图融合,在不同意图分类下,采用F1分数计算两个概率集融合时不同意图下的权重占比;进而确定出最终识别意图。基于该方法,还提出了意图理解系统。本发明提高了老年陪护机器人系统的意图理解率,以及老年人对于社交陪护机器人的使用满足感。

    仿真实验操作中感知容器位置的方法及装置

    公开(公告)号:CN111667733A

    公开(公告)日:2020-09-15

    申请号:CN202010552153.2

    申请日:2020-06-17

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种仿真实验操作中感知容器位置的方法,其特征在于,所述的方法包括:将主容器整体划分为若干子区域;S2:在同一坐标系下,生成每一个子区域的坐标值;在每一个子区域内设置一携带其坐标值的信号发生装置;在副容器内设置信号接收装置;利用主容器向副容器进行倾倒操作;信号接收装置识别信号发生装置,并将该信号发生装置的坐标值传送至后台操作端;后台操作端基于该坐标值建立主、副容器的三维坐标,并生成实时的演示图像。该方法通过主、副容器的位置交互,实现对于容器位置间的精确感知,提升实验操作的仿真度。此外,基于该方法,本申请还提供了相应的实现装置。

    一种面向虚拟实验的多模态语义融合人机交互系统和方法

    公开(公告)号:CN111665941A

    公开(公告)日:2020-09-15

    申请号:CN202010509144.5

    申请日:2020-06-07

    Applicant: 济南大学

    Abstract: 本发明涉及一种面向虚拟实验的多模态语义融合人机交互系统和方法,包括交互信息集成模块,还包括交互信息获取模块、交互意图推理模块和交互任务直行模块,其中,所述交互信息模块采用多模态融合模型来准确识别操作者的真实意图,并将获取到的信息提供给交互意图推理模块;所述交互意图推理模块根据手势语义和语言语义结合场景当前的交互情景来识别用户的交互意图,预测潜在的交互行为;所述交互任务执行模块根据交互意图推理模块预测的交互动作,生成用户期望的实验动作,生成响应的实验效果,返回对应的操作反馈,最后,实验效果和反馈通过不同的通道输出给用户。本发明解决了当下虚拟实验中面临的交互困难的问题。

    基于手势智能感知和人机协同机制的人机猜拳方法

    公开(公告)号:CN107329564B

    公开(公告)日:2020-05-29

    申请号:CN201710432455.4

    申请日:2017-06-09

    Applicant: 济南大学

    Abstract: 本发明公开了一种基于手势智能感知和人机协同机制的人机猜拳方法。首先将Kinect获得图像序列经过分割、肤色建模提取出人手,然后通过提出的SCDDF识别算法提取手势特征,再与事先建立好的手势库中模板进行匹配,最终识别出用户手势。在此基础上,将虚拟界面运用到人机猜拳游戏中使用户可以更加方便自然地体验人机猜拳游戏的乐趣;结合人机猜拳游戏,本文还提出人机协同机制,使整个游戏更加顺畅自然;在手势识别方面,本文融合DDF算法和性状上下文特征描述子算法,提出SCDDF算法,经实验验证,新的识别算法较之前的DDF算法识别正确率提高了10.8%。

    一种增强现实环境下的手势纠错方法、系统及装置

    公开(公告)号:CN109993108B

    公开(公告)日:2019-12-03

    申请号:CN201910248541.9

    申请日:2019-03-29

    Applicant: 济南大学

    Inventor: 冯志全 肖梦婷

    Abstract: 本申请公开了一种增强现实环境下的手势纠错方法、系统及装置,该方法首先获取人手的第一手势深度图和手势深度信息,然后利用手势识别模型判断当前手势是否可识别,当不可识别时,根据Hausdorff距离确定当前第二手势深度图的最小特征距离,最后通过Hausdorff距离确定第三手势深度图,并最终将第三手势深度图输入手势识别模型中,从而实现手势纠错。该系统包括:信息获取模块、预处理模块、第一输入模块、判断模块、最小特征距离确定模块、第三手势深度图确定模块和第二输入模块。该装置包括处理器以及与该处理器相连接的存储器,且处理器可执行如上所述的手势纠错方法。通过本申请,能够大大提高手势纠错的实时性和准确性。

Patent Agency Ranking