一种基于老年人行为特征的老年人行为识别检测方法

    公开(公告)号:CN112101235B

    公开(公告)日:2022-09-23

    申请号:CN202010977729.X

    申请日:2020-09-16

    Applicant: 济南大学

    Abstract: 本发明公开一种基于老年人行为特征的老年人行为识别检测方法,包括:在老年人身体上佩戴加速度传感器,令老年人做指定动作;通过Kinect设备和所述加速度传感器进行数据采集,通过Kinect设备获取动作视频,所述加速度传感器获取身体加速度数据;从所述动作视频提取动作帧;以第一特征提取通道提取所述动作帧的空间特征和时间特征;以第二特征提取通道,提取所述身体加速度数据的数值特征和时间特征;将所述第一特征提取通道和第二特征提取通道的输出结果通过前馈神经网络融合获得目标结果。本发明利用老年人行为特征与年轻人行为特征在时间上的区别能识别老年人行为,而且通过对动作视频和身体加速度数据特征来进行行为识别,互为补充使得识别更加准确。

    驾驶员状态确定方法、装置、驾驶员监控系统、车辆

    公开(公告)号:CN113378771A

    公开(公告)日:2021-09-10

    申请号:CN202110720648.6

    申请日:2021-06-28

    Applicant: 济南大学

    Abstract: 本发明属于计算机视觉技术领域,提供了一种驾驶员状态确定方法、装置、驾驶员监控系统、车辆。该方法包括:获取预设时长内的目标图像帧,判断驾驶员连续注视设定区域的时间是否达到预设的时间阈值,若是,则确定所述驾驶员处于视线分心驾驶状态;否则,确定驾驶员视线分布的预设视线集中区域,基于预设视线集中区域的不同计算相应的视线活跃度,判断得到的视线活跃度是否小于预设视线集中区域对应的设定的阈值,若是,则确定所述驾驶员处于认知分心驾驶状态;否则,则确定所述驾驶员处于正常驾驶状态。

    一种面向老年陪护机器人的智能纠错方法及系统

    公开(公告)号:CN112101236A

    公开(公告)日:2020-12-18

    申请号:CN202010978616.1

    申请日:2020-09-17

    Applicant: 济南大学

    Abstract: 本发明为了解决现有技术中存在的问题,创新提出了一种面向老年陪护机器人的智能纠错方法,在错误手势库的基础上,探究了基于机器人认知层手势识别错误的原因,利用皮尔逊算法计算出能够得到相同结果的不同输入手势间特征数组中差距最大的特征矩阵层号,并基于此利用博弈规则建立纠错算法,实现了基于认知层的纠错,提高了机器人对误识手势的识别率,本发明还提出了一种面向老年陪护机器人的智能纠错系统,有效解决机器人识别过程中由于老年人各项能力的弱化、手势表达不标准等问题造成的识别率不高的问题,有效的提高了机器人的手势识别的可靠性,提高了老年人陪护体验。

    一种深度手势识别算法的优化方法

    公开(公告)号:CN110348417A

    公开(公告)日:2019-10-18

    申请号:CN201910646658.2

    申请日:2019-07-17

    Applicant: 济南大学

    Abstract: 本申请公开了一种深度手势识别算法的优化方法,涉及人机交互技术领域,所述方法包括:建立统一的数据集存放结构和统一的数据集文件;根据配置文件将数据集样本以载入到内存中;将载入的数据集样本交给完整统一的训练模块;优化神经网络结构;根据配置信息来配置训练过程中各种可调参数和训练模块的行为并开始训练;训练结束后依据配置文件进行模型的保存和实验中数据的保存;将训练过程产生的数据加载到画图模块进行训练过程相关曲线的绘制。建立统一的数据集存放结构和统一的数据集文件,能在不同的项目间迁移,对多种传统网络的网络参数设置与优化,将传统网络结合实际使用情况加以优化和改进,增加训练速度,优化训练结果,减小模型体积。

    一种基于Kinect的手势遮挡检测方法及系统

    公开(公告)号:CN109902593A

    公开(公告)日:2019-06-18

    申请号:CN201910094427.5

    申请日:2019-01-30

    Applicant: 济南大学

    Abstract: 本发明提供了一种基于Kinect的手势遮挡检测方法及系统,包括:S1、利用Kinect分别获取深度图像以及彩色图像;S2、将深度图像二值化,并与彩色图像进行与运算,得到只有人手区域的彩色图像;S3、统计最大连通区域与肤色区域的比值判断是否存在手势被遮挡;S4、计算获取存在遮挡或不存在遮挡时的预测手势姿态。本发明通过Kinect获取手势的深度图像及其对应的彩色图像,通过图像与运算将彩色手势分割出来,然后用统计最大连通区域与肤色区域的比值判断是否存在手势被遮挡的情况,并通过手势估计算法预测出手势姿态,从而解决由于遮挡问题导致的手势无法识别的问题,实现提高手势识别准确率,特别是在有遮挡的情况下,可有效预测出手势姿态。

    基于超像素的深度图像预处理和深度空洞填充方法

    公开(公告)号:CN106341676B

    公开(公告)日:2017-06-16

    申请号:CN201610865067.0

    申请日:2016-09-29

    Applicant: 济南大学

    Abstract: 本发明公开了基于超像素的深度图像预处理和深度空洞填充方法,包括以下步骤:步骤一:待处理的深度图像的超像素分割:对于该待处理的深度图像对应的彩色图像进行超像素分割,然后利用彩色图像的分割结果对该待处理的深度图像进行分割;步骤二:基于超像素的深度图像预处理;步骤三:虚拟视点深度图像超像素分割:利用待处理的深度图像对应的彩色图像和预处理后的深度图像进行三维变换,生成虚拟视点初始彩色图像和虚拟视点初始深度图像,对虚拟视点初始深度图像进行超像素分割;步骤四:虚拟视点深度图像填充。本发明采用基于超像素的深度图像预处理和基于超像素的深度空洞处理,空洞填充准确性较高,计算量较小,有利于视点合成的实时实现。

    多模态融合的人机交互的意图理解方法及系统

    公开(公告)号:CN119068554A

    公开(公告)日:2024-12-03

    申请号:CN202411269806.0

    申请日:2024-09-11

    Applicant: 济南大学

    Abstract: 本申请公开了一种多模态融合的人机交互意图理解方法及系统。其实现步骤为:麦克风捕获语音,再转换为文字;摄像头捕获帧序列;文字与帧序列通过判断门判断输入是否为空;如果内容为文字,则文字通过特征提取模块,得到文本特征;如果为文字与帧序列,则帧序列通过门控模块判断手势类型;如果为动态手势,则帧序列通过网络提取特征,与文本特征通过特征融合模块进行融合;如果为静态手势,则静态手势通过特征提取模块提取特征,与文本特征通过融合网络进行融合;如果输入内容为动态手势,则帧序列通过时间空间特征网络;最终进行意图分类。本发明形成一个完整的多模态融合网络,作为机器人进行意图理解的重要过程,可以更好提高意图理解准确率。

    基于眼动注意力引导的空间通道自适应事故预测方法及系统

    公开(公告)号:CN118470484B

    公开(公告)日:2024-11-26

    申请号:CN202410672169.5

    申请日:2024-05-28

    Applicant: 济南大学

    Abstract: 本发明属于计算机视觉领域,提供了一种基于眼动注意力引导的空间通道自适应事故预测方法及系统,包括获取行车记录仪图像,利用训练好的骨干网络进行特征提取,得到行车记录仪空间通道特征图;利用骨干网络不同尺度的的残差块输出生成不同尺度的补丁,将不同尺度的补丁进行拼接后得到多尺度多视图特征;基于自定义初始历史时序特征图,经过时间自注意力模块、空间交叉注意力模块以及前馈神经网络提取时间特征,得到当前时序特征图,其中空间交叉注意力模块将多尺度多视图特征作为输入以提取空间信息,将当前时序特征图作为下一时间戳的历史时序特征图进行递归提取;将当前时序特征图与行车记录仪空间通道特征图进行融合分类,得到事故预测结果。

Patent Agency Ranking