-
公开(公告)号:CN110309726B
公开(公告)日:2022-09-13
申请号:CN201910496492.0
申请日:2019-06-10
Applicant: 济南大学
Abstract: 本发明提供一种微手势识别方法,采用收据手套作为输入设备,所述的数据手套可获取m个关节的旋转角度数据,包括以下步骤:a.首先进行数据预处理,将获取的数据使用最小二乘法进行曲线拟合处理;b.进行手势建模,使每种手势用一个包含m个元素的离散子序列SLZ来表示;c.进行手势识别,使用基于模板匹配的编辑距离进行手势的匹配与识别。本发明从传统的手掌、手臂等大幅度动作的识别转向手指精细动作的识别方向,为普适环境下的人机交互提供了更加自然和谐的解决方案。
-
公开(公告)号:CN114881179A
公开(公告)日:2022-08-09
申请号:CN202210796763.6
申请日:2022-07-08
Applicant: 济南大学
IPC: G06K9/62 , G06F40/44 , G06F40/279 , G06F3/01
Abstract: 本发明涉及数据处理技术领域,提供一种基于意图理解的智能实验方法,通过对多通道动态信息进行评估,按照有效信息的价值含量对每个通道自动赋予不同的权重,能够根据人的行为与动机的关系,获取静态信息,将静态信息与动态信息采用融合策略进行融合,提高意图预测的准确率,另外设计加入了趣味学习元素,可以根据不同学生的实验情况进行有针对性的引导警示以及设障等,使学生更容易达到心流状态。本发明具有理解用户意图精准并且大大提升了学习者的学习专注度和效率的有益效果。
-
公开(公告)号:CN109879252B
公开(公告)日:2022-05-13
申请号:CN201910267962.6
申请日:2019-04-03
Applicant: 济南大学
IPC: C01B7/03
Abstract: 本发明提出了一种用于制备氯气的实物交互套件及其使用方法,套件包括分液漏斗模型、铁架台模型、摄像设备、微处理器和智能终端;分液漏斗模型的采用红外发射管发出红外射线,另外一端接收,同时在通道中设置遮光板,在其转动中,通过判断遮住的红外射线的顺序和旋转角度,模拟分液漏斗控制流速。使用铁架台模型调整圆底烧瓶的高度,当圆底烧瓶与石棉瓦接触时,电子拉力计测的拉力发送给微处理器。摄像设备获取实验器材的标签,微处理器对数据进行处理发送给智能终端。本发明还提出了套件的使用方法。本发明采用虚拟系统和实物套件融合的方式,AR系统对实验者的操作步骤进行指导,减少实验危险的发生,在AR系统实时显示实验的真实效果。
-
公开(公告)号:CN112295617B
公开(公告)日:2022-04-01
申请号:CN202010984196.8
申请日:2020-09-18
Applicant: 济南大学
Abstract: 本发明提出了一种基于实验场景态势感知的智能烧杯,包括多模态输入感知模块、意图理解模块和意图融合模块;多模块输入感知模块用于接收语音传感器和视觉信息。意图理解模块用于根据语音关键字与语音意图库中意图的相关度得到语音意图;通过姿态传感器和测距设备交互获取烧杯的三维信息得到操作行为意图;基于图获取的图像,采用slam技术感知烧杯运动轨迹和采用区域生成网络感知场景态势得到场景感知意图。意图融合模块用于将用户意图利用模糊逻辑算子进行模糊推理,结合场景感知意图得到意图融合最终结果。本发明通过智能烧杯通过多模态融合与意图理解算法解决了用户行为的过程监控、实验场景理解和真实感量化交互方法的问题。
-
公开(公告)号:CN110009977B
公开(公告)日:2022-04-01
申请号:CN201910094428.X
申请日:2019-01-30
Applicant: 济南大学
Abstract: 本发明提供了一种物理平抛运动的数据采集装置及方法,包括:压力传感器、旋转角度传感器、水平仪、原点对齐组件、激光测距仪;所述压力传感器设置于导轨顶端,旋转角度传感器设置于导轨的拐角处,水平仪设置于导轨的水平部分,原点对齐组件设置于导轨水平部分的末端,所述导轨固定于内板上;所述激光测距仪分别于挡槽一端以及内板上端各设置一个,分别测量横坐标以及纵坐标。通过连续记录多次的平抛运动的下落点,并采用曲线拟合各点,形成抛物线,解决了现有技术中平抛运动数据采集中无法定量分析运动规律的问题,实现定性与定量结合的方式揭示运动规律,装置设计简单,操作难度小,更易于普及。
-
公开(公告)号:CN114092967A
公开(公告)日:2022-02-25
申请号:CN202111374811.4
申请日:2021-11-19
Applicant: 济南大学
Abstract: 本发明提出了一种实时多模态陪护机器人意图理解方法和系统,该方法包括:识别用户局部信息和目标物体;测算所有目标物体到用户的距离之和,计算目标物体与用户发生意图交互的概率;获取各意图特征间的相互依赖信息;相互依赖信息包括用户的动作信息、手势信息和预先知识库中保存的目标物体信息,并将相互依赖信息输入半朴素贝叶斯分类器得出各意图的概率结果并进行概率归一化得出目标物相关的各意图概率;将用户发生意图交互的概率与目标物相关的各意图概率进行概率融合得到各意图的最终概率。基于该方法,还提出了一种实时多模态陪护机器人意图理解系统,本发明具有较好的鲁棒性,极大提高了机器人对于用户意图的理解的效率和准确率。
-
公开(公告)号:CN113971797A
公开(公告)日:2022-01-25
申请号:CN202111473235.9
申请日:2021-12-02
Applicant: 山东海量信息技术研究院 , 济南大学
Abstract: 本发明属于计算机视觉技术领域,提供了一种基于动作行为特征的危险驾驶行为识别方法及系统,该网络以CenterNet为目标检测主体,将ResNet‑50和Hourglass网络各自做了改进并结合,用作CenterNet的主干。为了提升精度和速度,在其他多个模块也都做了改进,并采集自然条件下的驾驶员危险驾驶行为数据集用于评估网络,实验部分分别做了消融实验和对比实验,证明每一个模块的改进都可以对模型性能产生积极影响。
-
-
公开(公告)号:CN113691779A
公开(公告)日:2021-11-23
申请号:CN202110984031.5
申请日:2021-08-25
Applicant: 济南大学
Inventor: 冯志全
IPC: H04N7/18 , H04N5/232 , H04N21/6587
Abstract: 本发明提供了一种AR系统中增强呈现方式的方法,所述的方法包括:S1:利用摄像头拍摄至少一段完整的场景呈现视频,对于每段视频中的任何一个操作对象,视频中均包含两个及以上的操作视角;S2:利用步骤S1的视频构建视频库;S3:操作者进入场景进行操作,在任意时间点发出视角变换请求;S4:系统接收视角变换请求后,获取视频库中符合视角变换请求的视频片段;S5:系统将获取的视频片段覆盖原始视频流;S6:覆盖状态退出时,恢复原始视频流的场景呈现。在不增加摄像头数目的前提下,操作者可以从不同视角感知交互场景的信息,达到移动摄像头才可能达到的感知效果。
-
公开(公告)号:CN113378771A
公开(公告)日:2021-09-10
申请号:CN202110720648.6
申请日:2021-06-28
Applicant: 济南大学
Abstract: 本发明属于计算机视觉技术领域,提供了一种驾驶员状态确定方法、装置、驾驶员监控系统、车辆。该方法包括:获取预设时长内的目标图像帧,判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。
-
-
-
-
-
-
-
-
-