一种用于制备氯气的实物交互套件及其使用方法

    公开(公告)号:CN109879252A

    公开(公告)日:2019-06-14

    申请号:CN201910267962.6

    申请日:2019-04-03

    Applicant: 济南大学

    Inventor: 冯志全 王康

    Abstract: 本发明提出了一种用于制备氯气的实物交互套件及其使用方法,套件包括分液漏斗模型、铁架台模型、摄像设备、微处理器和智能终端;分液漏斗模型的采用红外发射管发出红外射线,另外一端接收,同时在通道中设置遮光板,在其转动中,通过判断遮住的红外射线的顺序和旋转角度,模拟分液漏斗控制流速。使用铁架台模型调整圆底烧瓶的高度,当圆底烧瓶与石棉瓦接触时,电子拉力计测的拉力发送给微处理器。摄像设备获取实验器材的标签,微处理器对数据进行处理发送给智能终端。本发明还提出了套件的使用方法。本发明采用虚拟系统和实物套件融合的方式,AR系统对实验者的操作步骤进行指导,减少实验危险的发生,在AR系统实时显示实验的真实效果。

    基于虚实融合实验的铁架台套件及其使用方法

    公开(公告)号:CN109876883A

    公开(公告)日:2019-06-14

    申请号:CN201910249242.7

    申请日:2019-03-29

    Applicant: 济南大学

    Inventor: 冯志全 韩睿

    Abstract: 本发明实施例公开了基于虚实融合实验的铁架台套件及其使用方法,套件包括铁架台、旋转传感器和滑动传感器;旋转传感器设置在调节螺钉的自由端,用于感知螺钉的旋转状态;滑动传感器用于感知铁杆夹持部的滑动状态。方法为获取第一触点、第二触点的数量和位置信息并保存;拧松调节螺钉,分别获取第一金属触点和第二金属触点传输的电信号;根据所述电信号,判断铁夹或铁圈的移动是否符合操作规范。本发明应用于AR化学实验中,AR系统能够获取到调节铁架台上铁夹或铁圈高度之前是否拧松了调节螺钉,对于不符合倾倒规范的操作给出提醒,避免暴力操作缩短铁架台的使用寿命,且保证实验过程的安全性及实验结果的精确性。

    一种基于视觉感知的虚拟显微镜及其应用

    公开(公告)号:CN109495724A

    公开(公告)日:2019-03-19

    申请号:CN201811477793.0

    申请日:2018-12-05

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明提供了一种基于视觉感知的虚拟显微镜及其应用,属于实验设备领域。该基于视觉感知的虚拟显微镜包括:显微镜本体模型以及设置在所述显微镜本体模型上的转动传感器、远程通信模块、显示器、相机、电子芯片;计算与显示设备;所述转动传感器、远程通信模块、显示器、相机分别与所述电子芯片连接;所述远程通信模块能够与计算与显示设备进行通讯。一方面,本发明利用虚拟融合技术,对用户观测结果进行信息增强,有利于用户随机探索实验现象的过程、机理与原理;另一方面,本发明通过实物操作,得到了真实显微镜条件下的操作体验,帮助实验人员掌握了相关实验技能。

    一种三维手势生成方法
    234.
    发明公开

    公开(公告)号:CN109189206A

    公开(公告)日:2019-01-11

    申请号:CN201810633830.6

    申请日:2018-06-20

    Applicant: 济南大学

    Inventor: 冯志全 李健

    CPC classification number: G06F3/017 G06K9/00355

    Abstract: 本发明涉及一种三维手势生成方法,包括以下步骤:a.利用Kinect中的人体骨骼信息得到人手的深度坐标;b.获取人手区域的深度图像;c.将步骤b中获取的深度图像按照7:3的比例分为训练集和测试集两部分,并在Caffe框架下用CNN对步骤c-1中的所有训练样本对手腕角度进行训练,得到一个i分类的CNN模型;d.对步骤c-2中分出的每一类训练样本,随机取4/5的样本对手指j个局部状态再次进行CNN训练;e.对每一帧深度图像利用步骤c和步骤d中训练出的二层分类模型得到手腕状态和手指局部状态,这两种状态共同决定了手势状态;f.对手势状态判断并以此来实现对手势的控制。本发明利用二层分类模型对深度图像的手势状态进行分类,最后提出了控制算法以驱动虚拟手的运动。

    一种基于数据手套的KEM手势识别算法

    公开(公告)号:CN109032337A

    公开(公告)日:2018-12-18

    申请号:CN201810684545.7

    申请日:2018-06-28

    Applicant: 济南大学

    Inventor: 冯志全 韩睿

    CPC classification number: G06F3/014 G06F3/017 G06K9/6202 G06K9/6223

    Abstract: 本发明涉及一种基于数据手套的KEM手势识别算法,所述的数据手套至少包括k1个传感器,k1≥5,所述的k1个传感器各分别在拇指、食指、中指、无名指和小指上,计算方法包括以下步骤:a.将数据手套采集的待测手势进行处理,判断其为动态或者静态,将其进行预处理;b.每种手势随机选取一个样本制作模板,将选取的样本数据输入到本文所特定的K‑means聚类算法中进行聚类降维;c.步骤b中得到的聚类中心就是该手势模板,为下一步模板匹配做好准备;d.将待识别数据的聚类中心输入到手势模板匹配算法中,得到手势识别结果。本发明具有实现较为简洁,鲁棒性较强,识别率较高,能够满足实时性的要求的有益效果。

    基于多特征融合的日冕物质抛射检测方法

    公开(公告)号:CN105046259B

    公开(公告)日:2018-09-25

    申请号:CN201510312081.3

    申请日:2015-06-09

    Applicant: 济南大学

    Abstract: 本发明公开了一种基于多特征融合的日冕物质抛射检测方法,通过对CME差分图像进行分割,将CME检测建模为差分图像中最亮块的分类问题;首先,将原图像转化为极坐标显示;其次,由于CME的典型表现是明亮的、纹理复杂的增强结构,因此,查找CME的最亮块,以最亮块作为图像的代表,并提取最亮块的灰度、纹理以及HOG特征;最后,以抽取的灰度特征、纹理以及HOG特征为基础,采用决策树作为基分类器,采用集成决策树完成CME的检测。实验结果表明,提出的融合多特征的CME检测算法,可以取得较好的CME检测效果。

    一种手势交互过程中用户手势的自动纠错方法

    公开(公告)号:CN107704072A

    公开(公告)日:2018-02-16

    申请号:CN201710434905.3

    申请日:2017-06-10

    Applicant: 济南大学

    Abstract: 本发明公开了一种手势交互过程中用户手势的自动纠错方法,首先利用深度学习训练几种手势得到网络模型,针对训练过程中识别错误的手势样本集,提取这些样本的特征,并存入一个集合中。在手势交互过程中,就可以先利用hausdorff距离计算手势是否与集合中的元素相似,如果相似则说明这个手势易被我们的网络模型识别为错误手势,我们采取以某个概率强制转换成正确的样本标签,如果和集合中任意元素都不相似则识别为网络模型测试的结果。从而提高识别率,使得自然交互过程更加准确。

    一种果园风送式智能植保装置

    公开(公告)号:CN107581184A

    公开(公告)日:2018-01-16

    申请号:CN201711027244.9

    申请日:2017-10-27

    Applicant: 济南大学

    Abstract: 本发明公开了一种果园风送式智能植保装置。该装置由拖拉机牵引,主要由机架总成、药桶、药泵总成、药液控制系统及电动机和蓄电池组等组成。机架上设置有丝杠螺母平台,丝杠螺母平台中两个工作平台上各固接有一个下固定板,下大齿轮和下小齿轮通过第一轴承活动安装在所述下固定板上,下支撑架底部固接在下大齿轮上,上固定板固接在下支撑架顶部,上大齿轮和上小齿轮通过第二轴承活动安装在所述上固定板上,上支撑架底部固接在上大齿轮上。上支撑架及下支撑架上都安装有风筒,风筒内部安装有风机及风机电动机,风筒出风口的边沿均布有喷嘴,喷嘴内腔通过药管依次与药泵总成和药桶连接,风机电动机驱动风机旋转形成药雾输送气流,辅助药液喷施。

    一种基于虚拟界面的自然交互方法

    公开(公告)号:CN105929946B

    公开(公告)日:2018-01-16

    申请号:CN201610236789.X

    申请日:2016-04-15

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于虚拟界面的自然交互方法,属于智能计算机领域。该方法包括:S1,构建虚拟界面:通过静态和动态两种方式构建虚拟界面;S2,对虚拟界面进行分区:将虚拟界面平均分成多个区域,每个区域具有不同的功能;S3,虚拟界面的实时刷新移动:在交互过程中,如果用户需要更换位置进行操作,则虚拟界面会根据用户移动的距离情况进行相应的同方向的移动。本发明方法通过静态和动态两种方式构建虚拟界面,将虚拟界面进行分区,然后将虚拟界面作为输入界面与应用系统进行交互,有效解决了“Midas Touch Problem”,而且减少了用户的操作负荷,具有良好的用户体验。

    一种面向用户心理模型表达的三维手势交互方法

    公开(公告)号:CN105045373B

    公开(公告)日:2018-01-09

    申请号:CN201510136561.9

    申请日:2015-03-26

    Applicant: 济南大学

    Inventor: 冯志全 黄忠柱

    Abstract: 本发明的面向用户心理模型表达的三维手势交互方法,从速度、轨迹和视角三个方面提出一种基于单目视觉的人手运动风格表达算法。首先,建立交互实验平台,利用摄像头、数据手套和位置跟踪仪,建立手势行为模型;其次,根据行为模型,分阶段建立人手运动的速度、轨迹和视角模型。最后,通过手势图像和运动模型,获得人手运动风格,使三维虚拟手势运动风格与实际人手运动风格保持一致,并实时显示,从而顺利完成和谐、自然、方便的人机交互任务。本发明的有益效果是:本发明将基于行为模型的手势风格算法运用到自然交互界面的设计中,表达用户的心理模型,降低用户的认知负荷,改善用户的交互体验。

Patent Agency Ranking