-
公开(公告)号:CN110308795B
公开(公告)日:2022-10-11
申请号:CN201910604878.9
申请日:2019-07-05
Applicant: 济南大学
IPC: G06F3/01 , G06V40/20 , G06V10/762 , G06V10/82 , G06N3/04
Abstract: 本发明公开了一种动态手势识别方法及系统,该方法包括以下步骤:获取手部运动数据,包括三轴加速度和角速度数据;对手部运动数据进行处理,截取有效的手势动作数据;对手势动作数据进行特征提取,得到特征值,包括手势动作的长度、加速度的平均值、角速度的平均值以及加速度的极值点;获取待测手势动作数据,基于BP神经网络算法与K‑means算法对待测手势动作数据进行动态手势识别。
-
公开(公告)号:CN115147493A
公开(公告)日:2022-10-04
申请号:CN202210483047.2
申请日:2022-05-06
Applicant: 济南大学
Abstract: 本发明公开了一种基于机器视觉的双目相机障碍物检测方法,用于AGV对障碍物的检测。本发明首先使用双目相机作为传感器获取两张左右图像,根据相机标定参数对左右图像做畸变校正处理,然后对图像预处理消除环境噪声,使用立体匹配获得图像的视差图,最后计算视差图像中最大视差值,根据视差求出当前图像帧中最小的深度距离,将该距离与预先设定的安全距离比较,判断是否存在障碍物。
-
公开(公告)号:CN110286763B
公开(公告)日:2022-09-23
申请号:CN201910543141.0
申请日:2019-06-21
Applicant: 济南大学
Abstract: 本发明提出了一种具有认知功能的导航式实验交互装置,包括信息输入感知模块、信息融合模块以及操作应用模块;其中信息输入感知模块获取视觉感知;获取容器信息以及完成触觉感知和通过语音的输入完成听觉感知。信息融合模块根据信息输入感知模块获取的视觉感觉、触觉感觉和听觉感知,确定多模态意图。操作应用模块基于多模态意图理解应用于实验。本发明通过对三个通道不同状态对交互的感知表达,以多模态信息相交集合与意图特征集合进行匹配,构成多模态意图理解模型,完成多模态融合,通过文字或语音对关键操作进行提示或指引,根据用户意图与操作规范判断错误操作,并对错误操作行为进行提示或对其后果进行可视化呈现。
-
公开(公告)号:CN112925936B
公开(公告)日:2022-08-12
申请号:CN202110196648.0
申请日:2021-02-22
Applicant: 济南大学
IPC: G06F16/535 , G06F16/583 , G06N3/04 , G06N3/08
Abstract: 本公开提供了一种基于深度哈希的运动捕获数据检索方法及系统,所述方案包括:基于运动捕获数据库中的运动捕获数据序列,生成每段运动捕获数据的运动表示图像;构建深度哈希特征提取模型,通过预训练的深度哈希特征提取模型提取所述运动表示图像的哈希特征;对于待检索的运动捕获数据,提取其哈希特征,并计算待检索的运动捕获数据哈希特征与所述运动捕获数据库中每段运动捕获数据哈希特征的距离,选择距离最近的前k个数据作为检索结果。本公开所述方案相对于现有技术具有更高的检索精度和效率。
-
公开(公告)号:CN110286835B
公开(公告)日:2022-06-17
申请号:CN201910548006.5
申请日:2019-06-21
Applicant: 济南大学
IPC: G06T19/00 , G06T13/20 , G06F3/0487 , G06F3/0488 , G06F3/16 , G09B9/00
Abstract: 本发明提出了一种具有意图理解功能的交互式智能容器,包括感知模块、识别模块、意图融合模块和交互应用模块;感知模块用于获取智能容器的触觉信息以及通过语音输入输出设备获取语音信息。识别模块用于将输入的触觉信息和语音信息表示成是三元组,然后将三元组和数据库信息进行比对得出五元组的输出;意图融合模块采用类比推理的方式,得到用户的准确意图,并纠正教学导航。交互应用模块根据用户的意图呈现不同的实验效果,本发明设计了一种具有意图理解功能的交互式智能容器,以及研究适用于化学实验的多模态融合模型与算法,形成多模态感知的导航式虚实融合智能实验系统。本发明采用触觉信息和语音信息的意图融合,使人机交互更加自然。
-
公开(公告)号:CN114092791A
公开(公告)日:2022-02-25
申请号:CN202111382548.3
申请日:2021-11-19
Applicant: 济南大学
Abstract: 本发明提供了一种基于场景感知的人机协同方法、系统及机器人,所述方法包括机器人通过场景感知确定人的意图,所述场景感知包括语音识别、手势识别以及周期性场景感知识别;基于所述意图,关联对应的活动,并通过数据库获取所述活动包含的子任务集合;在所述子任务集合未完成时,计算子任务对应的联合熵,基于所述联合熵的取值,将所述子任务分配至人或机器完成。本发明通过场景感知获取人的意图,将意图通过数据库对应的任务细化,在根据人机协同算法协助完成人想做的事情,高效的协助人及时完成任务。
-
公开(公告)号:CN109550476B
公开(公告)日:2021-03-26
申请号:CN201811477701.9
申请日:2018-12-05
Applicant: 济南大学
Abstract: 本发明提供了一种双支智能实验试管套件及其应用,属于实验设备领域。该双支智能实验试管套件包括至少两支实验试管模型,在每个所述实验试管模型的外壁上均设置有电子芯片和压力传感器,每个压力传感器分别与电子芯片的不同端口进行电连接;所述压力传感器用于采集实验材料的名称、温度、体积、浓度以及交互行为;所述电子芯片与计算机进行通讯。本发明采用传感器和电子芯片技术,采用虚实融合方法,一个容器套件可以“盛装”不同实验材料,具有低成本、多功能、易操作等优势;利用本发明不仅可以感知用户操作态势(用户选择),而且可以感知容器模型与实验材料态势(容器位置与倾斜度,材质在容器内的真实感仿真效果),实现了实验的智能化。
-
公开(公告)号:CN109495724B
公开(公告)日:2020-12-29
申请号:CN201811477793.0
申请日:2018-12-05
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了一种基于视觉感知的虚拟显微镜及其应用,属于实验设备领域。该基于视觉感知的虚拟显微镜包括:显微镜本体模型以及设置在所述显微镜本体模型上的转动传感器、远程通信模块、显示器、相机、电子芯片;计算与显示设备;所述转动传感器、远程通信模块、显示器、相机分别与所述电子芯片连接;所述远程通信模块能够与计算与显示设备进行通讯。一方面,本发明利用虚拟融合技术,对用户观测结果进行信息增强,有利于用户随机探索实验现象的过程、机理与原理;另一方面,本发明通过实物操作,得到了真实显微镜条件下的操作体验,帮助实验人员掌握了相关实验技能。
-
公开(公告)号:CN112101235A
公开(公告)日:2020-12-18
申请号:CN202010977729.X
申请日:2020-09-16
Applicant: 济南大学
Abstract: 本发明公开一种基于老年人行为特征的老年人行为识别检测方法,包括:在老年人身体上佩戴加速度传感器,令老年人做指定动作;通过Kinect设备和所述加速度传感器进行数据采集,通过Kinect设备获取动作视频,所述加速度传感器获取身体加速度数据;从所述动作视频提取动作帧;以第一特征提取通道提取所述动作帧的空间特征和时间特征;以第二特征提取通道,提取所述身体加速度数据的数值特征和时间特征;将所述第一特征提取通道和第二特征提取通道的输出结果通过前馈神经网络融合获得目标结果。本发明利用老年人行为特征与年轻人行为特征在时间上的区别能识别老年人行为,而且通过对动作视频和身体加速度数据特征来进行行为识别,互为补充使得识别更加准确。
-
公开(公告)号:CN112101219A
公开(公告)日:2020-12-18
申请号:CN202010970662.7
申请日:2020-09-15
Applicant: 济南大学
Abstract: 本发明提出了一种面向老年陪护机器人的意图理解方法和系统,该方法包括:实时获取老年人的手势图像和姿态信息,对手势图像和姿态信息均进行图像分割分别形成手势数据集和姿态数据集;将手势数据集输入训练好的神经网络模型进行手势识别得到手势识别概率集、将姿态数据集输入训练好的隐马尔可夫模型进行姿态识别得到姿态识别概率集;基于混淆矩阵的融合算法将手势识别概率集和姿态识别概率集进行意图融合,在不同意图分类下,采用F1分数计算两个概率集融合时不同意图下的权重占比;进而确定出最终识别意图。基于该方法,还提出了意图理解系统。本发明提高了老年陪护机器人系统的意图理解率,以及老年人对于社交陪护机器人的使用满足感。
-
-
-
-
-
-
-
-
-