-
公开(公告)号:CN105204627A
公开(公告)日:2015-12-30
申请号:CN201510551014.7
申请日:2015-09-01
Applicant: 济南大学
IPC: G06F3/01
Abstract: 本发明提供了一种基于手势的数字输入方法,属于计算机领域。该方法构造虚拟界面,所述虚拟界面是操作者手势操作区域,该虚拟界面能够随着操作者的身体位置或体态的变化而变化;通过一个虚拟界面逐次输入N个数字,或者通过生成N个虚拟界面,每个虚拟界面输入一个数字,这N个虚拟界面形成虚拟界面群;将显示屏幕定义为物理界面,操作者与物理界面之间的空间定义为物理空间;所述物理空间包括虚拟界面和非虚拟界面;操作者的手势只有在虚拟界面内才是有效的和能够感知的,在非虚拟界面内的手势是无效的;通过所述虚拟界面群输入数字。
-
公开(公告)号:CN105045373A
公开(公告)日:2015-11-11
申请号:CN201510136561.9
申请日:2015-03-26
Applicant: 济南大学
Abstract: 本发明的面向用户心理模型表达的三维手势交互方法,从速度、轨迹和视角三个方面提出一种基于单目视觉的人手运动风格表达算法。首先,建立交互实验平台,利用摄像头、数据手套和位置跟踪仪,建立手势行为模型;其次,根据行为模型,分阶段建立人手运动的速度、轨迹和视角模型。最后,通过手势图像和运动模型,获得人手运动风格,使三维虚拟手势运动风格与实际人手运动风格保持一致,并实时显示,从而顺利完成和谐、自然、方便的人机交互任务。本发明的有益效果是:本发明将基于行为模型的手势风格算法运用到自然交互界面的设计中,表达用户的心理模型,降低用户的认知负荷,改善用户的交互体验。
-
公开(公告)号:CN104914996A
公开(公告)日:2015-09-16
申请号:CN201510267847.0
申请日:2015-05-22
Applicant: 济南大学
Abstract: 本发明提供了一种改变三维手势状态的方法,属于计算机视觉领域。所述方法包括:第1步:建立三维手势数据库;第2步:用户手势进入摄像机场景,识别出用户手势,从数据库中得到与用户手势对应的三维手势模型;第3步:首先计算用户手势的运动向量V,然后,计算机把与手势的运动向量V相反的向量-V施加于三维手势模型,使得该三维手势模型同时沿着与用户手势运动相反的方向运动;判断用户手势与三维手势模型是否相同,如果是,则进入第4步,如果否,则返回第3步;第4步:返回三维手势模型有关参数,即完成三维手势模型的初始化。
-
公开(公告)号:CN112099632B
公开(公告)日:2024-04-05
申请号:CN202010974163.5
申请日:2020-09-16
Applicant: 济南大学
Abstract: 本发明提供了一种面向助老陪护的人‑机器人协同交互方法,本发明通过识别获得所需手势信息、认知目标和语音信息,并通过过滤处理,输出各模态的有效信息,通过基于意图理解的多模态融合算法在意图库的支持下输出意图槽,实现用户意图的准确捕获,并对意图槽和必要的识别结果一起作为输入信息,通过基于认知模型的协同任务决策算法进行处理,在知识库和规则库的支持下,输出子任务执行的决策结果,实现人‑机器人协同工作。本发明可在降低老人交互负担的前提下,提高老年人和机器人之间的任务完成的绩效,使得老年人对机器人的陪护给予较高的满意度评价。
-
公开(公告)号:CN116895037A
公开(公告)日:2023-10-17
申请号:CN202310912141.X
申请日:2023-07-24
Applicant: 济南大学
IPC: G06V20/40 , G06T3/40 , G06V10/82 , G06N3/0464 , G06V10/86
Abstract: 本发明属于计算机视觉技术领域,具体为一种基于边缘信息和多尺度交叉融合网络的帧插入方法及系统,包括:获取连续的两帧图像,对图像进行裁剪和尺度变换,得到裁剪后的原尺度图像以及尺度变换后的图像;对原尺度图像进行特征提取,利用基于边缘信息的特征增强模块对提取的特征进行增强得到增强后的特征;对增强后的特征进行尺度变换后,分别对不同尺度的增强后的特征进行像素级参数提取,接着使用自适应流协作根据提取的像素级参数对不同尺度的图像进行帧扭曲操作,得到三个尺度的扭曲帧;将三个尺度的扭曲帧输入多尺度交叉融合网络中以合成插值帧。本发明的基于边缘信息的特征增强模块能够使模型获得更加完整的特征图,从而提高模型性能。
-
公开(公告)号:CN115860591B
公开(公告)日:2023-06-20
申请号:CN202310192914.1
申请日:2023-03-03
Applicant: 济南大学
Inventor: 冯志全
IPC: G06Q10/0639 , G06Q50/20
Abstract: 本发明公开了一种实验操作AI考试评分方法及系统,属于考试成绩计算领域,所述方法包括:将实验过程分为m个步骤,将每个实验步骤分为n个评分点;计算每个评分点分值、每个评分点分值求和得到每个步骤分值、每个步骤分值求和得到总分;计算每个评分点分值可信度tk、每个步骤评分的可信度Ti、总分的可信度T;对评分点进行补充评分;输出考试评分表。本发明旨在精准、量化、实时地给出评定成绩和扣分依据,精准提供全程可追溯的实验操作数据。
-
公开(公告)号:CN109033978B
公开(公告)日:2023-04-18
申请号:CN201810684333.9
申请日:2018-06-28
Applicant: 济南大学
IPC: G06V40/10 , G06V10/764 , G06V10/774 , G06V10/776 , G06V10/82
Abstract: 本发明提供了一种基于纠错策略的CNN‑SVM混合模型手势识别方法,属于人机交互领域。所述基于纠错策略的CNN‑SVM混合模型手势识别方法首先对采集到的手势数据进行预处理,然后自动提取特征并进行预测分类得到分类结果,最后利用纠错策略对所述分类结果进行纠正。利用本发明方法降低了易混淆手势之间的误识率,提高了静态手势的识别率。
-
公开(公告)号:CN109886164B
公开(公告)日:2022-11-04
申请号:CN201910094426.0
申请日:2019-01-30
Applicant: 济南大学
IPC: G06V40/10 , G06V40/20 , G06V10/74 , G06V10/762 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明提供了一种异常手势的识别与处理方法,包括:通过kinect获取人手深度图像;将[0,n/2]、[n/2,n]帧内的每一帧手势图像作CNN模型的正向传播,提取特征图像,对特征图像中的像素点进行聚类,获取第一特征值、第二特征值;利用RNN无监督学习深度网络,比较第一特征值与第二特征值的相似性;对神经网络分类后的手势图像进行正向特征提取,获取第一特征向量,将[0,n/2]帧和[n/2,n]帧进行融合,获取第二特征向量;对第一特征向量和第二特征向量进行误差逆向传播算法训练;反复迭代,得到最大相似手势。本发明解决了现有技术中对于手势的识别容易出现无法识别或者识别错误的异常问题,实现提高对异常手势的识别准确度,提升用户体验。
-
公开(公告)号:CN110362210B
公开(公告)日:2022-10-11
申请号:CN201910670994.0
申请日:2019-07-24
Applicant: 济南大学
IPC: G06F3/01 , G06V40/20 , G06V40/10 , G06V40/18 , G06V10/764
Abstract: 本公开提供了一种虚拟装配中融合眼动跟踪和手势识别的人机交互方法和装置,根据获取到眼动数据,进行注视点跟踪;根据获取的手势信息,进行手势的识别,对得到的手势识别数据和眼动数据进行标注,构成训练集,构建多流卷积神经网络‑长短期记忆网络模型,所述网络模型利用训练集进行自我学习;将训练得到的最优网络模型应用在虚拟装配过程,获取虚拟装配过程的眼动数据和手势信息,提取眼动与手势特征,根据特征信息分析得出操作人员的行为类别进而完成装配任务。解决了单一模态下对相似行为的误判问题,并利用深度学习算法的优势,以较高的准确率识别视频中操作人员的行为,完成虚拟装配任务,实现人机交互。
-
公开(公告)号:CN112101235B
公开(公告)日:2022-09-23
申请号:CN202010977729.X
申请日:2020-09-16
Applicant: 济南大学
Abstract: 本发明公开一种基于老年人行为特征的老年人行为识别检测方法,包括:在老年人身体上佩戴加速度传感器,令老年人做指定动作;通过Kinect设备和所述加速度传感器进行数据采集,通过Kinect设备获取动作视频,所述加速度传感器获取身体加速度数据;从所述动作视频提取动作帧;以第一特征提取通道提取所述动作帧的空间特征和时间特征;以第二特征提取通道,提取所述身体加速度数据的数值特征和时间特征;将所述第一特征提取通道和第二特征提取通道的输出结果通过前馈神经网络融合获得目标结果。本发明利用老年人行为特征与年轻人行为特征在时间上的区别能识别老年人行为,而且通过对动作视频和身体加速度数据特征来进行行为识别,互为补充使得识别更加准确。
-
-
-
-
-
-
-
-
-