一种改变三维手势状态的方法

    公开(公告)号:CN104914996A

    公开(公告)日:2015-09-16

    申请号:CN201510267847.0

    申请日:2015-05-22

    Applicant: 济南大学

    Inventor: 冯志全 冯仕昌

    Abstract: 本发明提供了一种改变三维手势状态的方法,属于计算机视觉领域。所述方法包括:第1步:建立三维手势数据库;第2步:用户手势进入摄像机场景,识别出用户手势,从数据库中得到与用户手势对应的三维手势模型;第3步:首先计算用户手势的运动向量V,然后,计算机把与手势的运动向量V相反的向量-V施加于三维手势模型,使得该三维手势模型同时沿着与用户手势运动相反的方向运动;判断用户手势与三维手势模型是否相同,如果是,则进入第4步,如果否,则返回第3步;第4步:返回三维手势模型有关参数,即完成三维手势模型的初始化。

    一种面向助老陪护的人-机器人协同交互方法

    公开(公告)号:CN112099632B

    公开(公告)日:2024-04-05

    申请号:CN202010974163.5

    申请日:2020-09-16

    Applicant: 济南大学

    Abstract: 本发明提供了一种面向助老陪护的人‑机器人协同交互方法,本发明通过识别获得所需手势信息、认知目标和语音信息,并通过过滤处理,输出各模态的有效信息,通过基于意图理解的多模态融合算法在意图库的支持下输出意图槽,实现用户意图的准确捕获,并对意图槽和必要的识别结果一起作为输入信息,通过基于认知模型的协同任务决策算法进行处理,在知识库和规则库的支持下,输出子任务执行的决策结果,实现人‑机器人协同工作。本发明可在降低老人交互负担的前提下,提高老年人和机器人之间的任务完成的绩效,使得老年人对机器人的陪护给予较高的满意度评价。

    基于边缘信息和多尺度交叉融合网络的帧插入方法及系统

    公开(公告)号:CN116895037A

    公开(公告)日:2023-10-17

    申请号:CN202310912141.X

    申请日:2023-07-24

    Applicant: 济南大学

    Abstract: 本发明属于计算机视觉技术领域,具体为一种基于边缘信息和多尺度交叉融合网络的帧插入方法及系统,包括:获取连续的两帧图像,对图像进行裁剪和尺度变换,得到裁剪后的原尺度图像以及尺度变换后的图像;对原尺度图像进行特征提取,利用基于边缘信息的特征增强模块对提取的特征进行增强得到增强后的特征;对增强后的特征进行尺度变换后,分别对不同尺度的增强后的特征进行像素级参数提取,接着使用自适应流协作根据提取的像素级参数对不同尺度的图像进行帧扭曲操作,得到三个尺度的扭曲帧;将三个尺度的扭曲帧输入多尺度交叉融合网络中以合成插值帧。本发明的基于边缘信息的特征增强模块能够使模型获得更加完整的特征图,从而提高模型性能。

    一种实验操作AI考试评分方法及系统

    公开(公告)号:CN115860591B

    公开(公告)日:2023-06-20

    申请号:CN202310192914.1

    申请日:2023-03-03

    Applicant: 济南大学

    Inventor: 冯志全

    Abstract: 本发明公开了一种实验操作AI考试评分方法及系统,属于考试成绩计算领域,所述方法包括:将实验过程分为m个步骤,将每个实验步骤分为n个评分点;计算每个评分点分值、每个评分点分值求和得到每个步骤分值、每个步骤分值求和得到总分;计算每个评分点分值可信度tk、每个步骤评分的可信度Ti、总分的可信度T;对评分点进行补充评分;输出考试评分表。本发明旨在精准、量化、实时地给出评定成绩和扣分依据,精准提供全程可追溯的实验操作数据。

    一种基于纠错策略的CNN-SVM混合模型手势识别方法

    公开(公告)号:CN109033978B

    公开(公告)日:2023-04-18

    申请号:CN201810684333.9

    申请日:2018-06-28

    Applicant: 济南大学

    Inventor: 冯志全 李健

    Abstract: 本发明提供了一种基于纠错策略的CNN‑SVM混合模型手势识别方法,属于人机交互领域。所述基于纠错策略的CNN‑SVM混合模型手势识别方法首先对采集到的手势数据进行预处理,然后自动提取特征并进行预测分类得到分类结果,最后利用纠错策略对所述分类结果进行纠正。利用本发明方法降低了易混淆手势之间的误识率,提高了静态手势的识别率。

    一种异常手势的识别与处理方法

    公开(公告)号:CN109886164B

    公开(公告)日:2022-11-04

    申请号:CN201910094426.0

    申请日:2019-01-30

    Applicant: 济南大学

    Abstract: 本发明提供了一种异常手势的识别与处理方法,包括:通过kinect获取人手深度图像;将[0,n/2]、[n/2,n]帧内的每一帧手势图像作CNN模型的正向传播,提取特征图像,对特征图像中的像素点进行聚类,获取第一特征值、第二特征值;利用RNN无监督学习深度网络,比较第一特征值与第二特征值的相似性;对神经网络分类后的手势图像进行正向特征提取,获取第一特征向量,将[0,n/2]帧和[n/2,n]帧进行融合,获取第二特征向量;对第一特征向量和第二特征向量进行误差逆向传播算法训练;反复迭代,得到最大相似手势。本发明解决了现有技术中对于手势的识别容易出现无法识别或者识别错误的异常问题,实现提高对异常手势的识别准确度,提升用户体验。

    虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置

    公开(公告)号:CN110362210B

    公开(公告)日:2022-10-11

    申请号:CN201910670994.0

    申请日:2019-07-24

    Applicant: 济南大学

    Abstract: 本公开提供了一种虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置,根据获取到眼动数据,进行注视点跟踪;根据获取的手势信息,进行手势的识别,对得到的手势识别数据和眼动数据进行标注,构成训练集,构建多流卷积神经网络‑长短期记忆网络模型,所述网络模型利用训练集进行自我学习;将训练得到的最优网络模型应用在虚拟装配过程,获取虚拟装配过程的眼动数据和手势信息,提取眼动与手势特征,根据特征信息分析得出操作人员的行为类别进而完成装配任务。解决了单一模态下对相似行为的误判问题,并利用深度学习算法的优势,以较高的准确率识别视频中操作人员的行为,完成虚拟装配任务,实现人机交互。

    一种基于老年人行为特征的老年人行为识别检测方法

    公开(公告)号:CN112101235B

    公开(公告)日:2022-09-23

    申请号:CN202010977729.X

    申请日:2020-09-16

    Applicant: 济南大学

    Abstract: 本发明公开一种基于老年人行为特征的老年人行为识别检测方法,包括:在老年人身体上佩戴加速度传感器,令老年人做指定动作;通过Kinect设备和所述加速度传感器进行数据采集,通过Kinect设备获取动作视频,所述加速度传感器获取身体加速度数据;从所述动作视频提取动作帧;以第一特征提取通道提取所述动作帧的空间特征和时间特征;以第二特征提取通道,提取所述身体加速度数据的数值特征和时间特征;将所述第一特征提取通道和第二特征提取通道的输出结果通过前馈神经网络融合获得目标结果。本发明利用老年人行为特征与年轻人行为特征在时间上的区别能识别老年人行为,而且通过对动作视频和身体加速度数据特征来进行行为识别,互为补充使得识别更加准确。

    一种基于多传感器的组合导航方法及系统

    公开(公告)号:CN115046543A

    公开(公告)日:2022-09-13

    申请号:CN202110253038.X

    申请日:2021-03-09

    Applicant: 济南大学

    Abstract: 本发明公开了一种基于多传感器的组合导航方法及系统,该方法包括:采集IMU以及轮式编码器的信息进行初始化,根据里程计的内参,得到轮式编码器的线速度和角速度并进行与IMU数据的整合;接着通过深度相机,利用视觉SLAM算法,即得到机器人在任意位置的位姿,共六个自由度的信息,获取图像帧并提取ORB描述子,将整合后的得到的IMU数据与图像的位姿信息进行初始化,采用整合后的IMU的位姿信息作为先验值,并采用视觉SLAM得到的姿态信息作为观测值并与图像帧进行时间同步;接着,使用卡尔曼滤波器进行优化处理;将采集的激光雷达数据进行数据转换并与初步滤波后得到的位姿数据利用扩展卡尔曼滤波器进行滤波优化,并输出最终的最优导航信息。最后根据组合导航方法提供了一种用于移动机器人的导航系统。本发明提供的基于多传感器的组合导航方法及系统,将各传感器进行优势互补,符合智能机器人的导航要求,可保持稳定可靠的导航,提高了导航精度和抗干扰能力以及导航系统的应用范围。

Patent Agency Ranking