-
公开(公告)号:CN111753696A
公开(公告)日:2020-10-09
申请号:CN202010552152.8
申请日:2020-06-17
Applicant: 济南大学
Inventor: 冯志全
Abstract: 本发明提供了一种感知场景信息的方法,所述的方法包括:S1:通过摄像头获取场景图像数据;S2:基于场景图像数据,计算虚拟物体在场景中的位置坐标;S3:基于场景图像数据,计算障碍物在场景中的位置坐标;S4:将障碍物坐标与虚拟物体坐标进行作差处理,确定场景内的各个物体的位置关系。本发明基于简单的实现逻辑,简化了应用条件,能够根据位置估计和地图进行自身定位,实现场景信息的感知。此外,还将该方法应用于仿真装置和机器人中。
-
公开(公告)号:CN109300387B
公开(公告)日:2020-09-29
申请号:CN201811477589.9
申请日:2018-12-05
Applicant: 济南大学
Abstract: 本发明提供了一种虚拟显微镜实物交互套件及其应用,属于实验设备领域。该虚拟显微镜实物交互套件包括:显微镜本体模型以及设置在所述显微镜本体模型上的转动传感器、压感传感器、电子芯片、远程通信模块;远程计算显示设备和本地计算显示设备;所述转动传感器、压感传感器、远程通信模块分别与所述电子芯片连接;所述远程通信模块能够分别与远程计算显示设备和本地计算显示设备进行通讯。本发明利用虚拟融合技术,对用户观测结果进行信息增强,有利于用户随机探索实验现象的过程、机理与原理;而且通过实物操作,得到了真实显微镜条件下的操作体验,帮助实验人员掌握了相关实验技能。
-
公开(公告)号:CN111667734A
公开(公告)日:2020-09-15
申请号:CN202010552318.6
申请日:2020-06-17
Applicant: 济南大学
Inventor: 冯志全
IPC: G09B9/00
Abstract: 本发明提供了一种基于物理接触感知容器倾倒的方法及装置,所述的方法包括:S1:利用主容器向副容器倾倒液体;S2:副容器上的感知模块接收液体后导通,向控制端发送信号;S3:控制端接收到信号后,识别信号发送的感知模块,得到倾倒信息。所述的装置包括:主容器,用于向副容器倾倒液体;副容器,设置感知模块,用于接收液体后导通,向控制端发送信号;后台操作端,用于接收感知模块的信号,得到倾倒信息。该申请利用液体这一有形介质实现容器倾倒的感知,增加了倾倒信息获取的内容及准确性。
-
公开(公告)号:CN111651035A
公开(公告)日:2020-09-11
申请号:CN202010284617.6
申请日:2020-04-13
Applicant: 济南大学
Abstract: 本申请公开了一种基于多模态交互的虚拟实验系统及方法,该实验系统主要包括输入层、感知与识别层、融合层以及应用层。该方法包括:分别通过视觉通道、触觉通道和听觉通道,采集相应的视觉信息、传感信号以及语音信号;分别对不同通道的信息进行识别;根据识别结果,采用基于决策层面的多模态融合方法,在AR平台上对视觉通道、触觉通道和听觉通道的模态信息所构建的相应向量集进行融合;根据融合结果,采用语音导航、视觉显示以及触觉反馈的方式呈现实验过程和实验结果。通过本申请,能够充分利用多种通道,并采用多模态融合的方法实现实验过程,有利于降低用户操作负荷,提高实验的沉浸感,提高虚拟交互的效率。
-
公开(公告)号:CN110826495A
公开(公告)日:2020-02-21
申请号:CN201911082183.5
申请日:2019-11-07
Applicant: 济南大学
Abstract: 本公开公开了基于面部朝向的身体左右肢体一致性跟踪判别方法及系统,获取待跟踪视频,将待跟踪视频输入到部件检测器中,输出被跟踪目标的每个肢体部件的若干个识别结果以及每个识别结果对应的置信度;根据置信度选出面部区域,估计被跟踪目标的面部朝向;根据面部朝向判断人体的面向位置;根据面部朝向,对被跟踪目标每个肢体部件的所有识别结果,按不同的优先级顺序进行选取,获得各肢体的候选集;最后,对候选集利用图结构模型PS进行推断以获得肢体最终姿态。
-
公开(公告)号:CN110554774A
公开(公告)日:2019-12-10
申请号:CN201910660335.9
申请日:2019-07-22
Applicant: 济南大学
Abstract: 本发明提出了一种面向AR的导航式交互范式系统,该系统包括输入与感知模块、融合模块以及应用表达模块;输入与感知模块通过kinect获取手部骨骼深度信息,得到手势深度图,完成手势识别;通过语音关键词识别和提取,对实验关键词分类,通过相似度计算得到相似度概率,完成语音识别;融合模块根据手势识别、语音识别以及力反馈表达,通过计算不同模态下不同状态的信号感知对用户意图进行分类,确定多模态意图,并且设置意图专家知识库;应用表达模块对虚拟化学实验进行语音导航,视觉呈现,以及通过进行感知力反馈表达。本发明采用自然交互技术融合手势和语音多模态,并探索一种自然交互模式,降低用户负荷,带来不同的用户体验。
-
公开(公告)号:CN110196642A
公开(公告)日:2019-09-03
申请号:CN201910543153.3
申请日:2019-06-21
Applicant: 济南大学
Abstract: 本发明提出了一种基于意图理解模型的导航式虚拟显微镜,包括多模态输入与感知模块、多模态信息整合模块和交互应用模块;多模态输入与感知模块用于通过传声器获得用户的语音信息,以及获得用户的操作行为;多模态信息整合模块用于将语音信息通过视觉通道信息处理和将操作行为通过触觉通道信息处理,然后将处理后的语音信息和操作行为通过多通道信息整合,完成显微镜和用户之间的交互。本发明通过多模态信息获取和整合,利用简单的传感元件,加入了多种模态的信号输入和智能化感应技术,在保证数字显微镜优点的基础上,让广大普通和贫困中学学生也能有条件进行显微镜的学习,增加对微观世界的认知感受,和体验智能显微镜。
-
公开(公告)号:CN110175607A
公开(公告)日:2019-08-27
申请号:CN201910362144.4
申请日:2019-04-30
Applicant: 济南大学
IPC: G06K9/22 , G06K9/24 , G06F3/0354 , G09B17/02
Abstract: 本发明提供了一种激光笔套件及其画图跟踪实现方法,本发明利用Kinect设备与AR交互算法以及激光笔按钮相结合,只需要在Kinect设备前做动作即可实现远程任意画直线或曲线的操作,另外还可进行选择、旋转以及平移操作,当选择物体时,激光笔会发出激光,从而获知选择哪个物体,实现以简单的方式来进行数学图形的绘制,方便远程教学。在画图追踪算法上,将基于颜色特征的检测、五帧差分算法与混合高斯模型进行结合。将三个检测出的结果进行逻辑“与”运算,再通过连通性检测得到完整的运动目标。从而有效地克服光照变化噪声干扰、空洞的现象,具有鲁棒性和准确性。
-
公开(公告)号:CN109993135A
公开(公告)日:2019-07-09
申请号:CN201910274142.X
申请日:2019-03-29
Applicant: 济南大学
Abstract: 本申请公开了一种基于增强现实的手势识别方法、系统及装置,该方法包括:获取人手的手势深度图和手势深度信息,将手势深度图分为训练集和测试集,将训练集和测试集中的手势深度图剪切为大小相等的n个单元,利用DTW算法对两个集合中的动态视频帧进行优化,建立一双结构网络识别模型,然后将测试集输入至该识别模型中进行测试,获取手势识别结果;在增强现实环境中,根据手势深度信息和该识别模型,对手势进行识别。该系统包括:信息获取模块、集合分类模块、剪切模块、优化模块、识别模型建立模块、测试模块和识别模块。该装置包括处理器以及与其通信连接的存储器。通过本申请,能够有效提高手势识别的实时性和手势识别率,从而提高用户体验。
-
公开(公告)号:CN109920315A
公开(公告)日:2019-06-21
申请号:CN201910248072.0
申请日:2019-03-29
Applicant: 济南大学
IPC: G09B23/20
Abstract: 本申请公开了一种虚拟α粒子散射实验系统,该系统主要包括:实验模型模块、倾角传感器、角度传感器模块、通讯模块和呈现模块,实验模型模块设置于角度传感器模块上,倾角传感器与实验模型模块连接,倾角传感器和角度传感器分别通过通讯模块与呈现模块通信连接。通过该实验系统,有利于提高实验的准确性和实验效率,还能够降低实验条件,有效解决偏远地区无法进行α粒子散射实验的问题,有利于提高实验系统适用范围,便于推广使用。
-
-
-
-
-
-
-
-
-