-
公开(公告)号:CN117896526A
公开(公告)日:2024-04-16
申请号:CN202410059485.5
申请日:2024-01-15
Applicant: 济南大学
IPC: H04N19/132 , H04N19/182 , H04N19/42 , H04N19/44 , G06T9/00 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了基于双向编码结构的视频帧插值方法及系统;对第一尺度的输入帧图像进行预处理,得到第二和第三尺度的输入帧图像;将第一尺度的输入帧图像,输入到训练后的插值帧生成模型得到插值帧;模型对第一尺度的输入帧图像进行处理,得到第一尺度原始特征;对第一尺度原始特征进行预处理,得到第二、三尺度的原始特征;将第一、二和三尺度的原始特征,各自输入到对应的子网络,分别得到第一、二和三尺度原始特征上每个目标像素的像素级参数;基于每个尺度原始特征上每个目标像素的像素级参数和AdaCoF,对相应尺度的输入图像进行扭曲操作,得到相应尺度的扭曲帧图像;对多个尺度的扭曲帧图像进行合成操作得到插值帧。
-
公开(公告)号:CN119295779A
公开(公告)日:2025-01-10
申请号:CN202411318602.1
申请日:2024-09-20
Applicant: 济南大学
IPC: G06V10/74 , G06V10/82 , G06V10/774 , G06V10/44 , G06V10/75 , G06V30/18 , G06N3/0499 , G06N3/0455 , G06N3/08 , G06V20/52
Abstract: 本发明提供了一种文本到图像跨模态行人重识别方法及系统,所述方案包括:获取待查询文本描述及其对应图像库;对于所述文本描述及图像库,分别利用预先训练的图像和文本特征编码器,获得文本特征和图像库中图像样本的图像特征;其中,所述图像和文本特征编码器的训练的损失函数包括整体匹配损失、局部匹配损失以及文本掩码预测损失;基于获得的文本特征和图像库中图像样本图像特征,通过相似度计算,确定与待查询文本描述相对应的图像,实现文本到图像跨模态行人重识别。
-
公开(公告)号:CN119295779B
公开(公告)日:2025-05-02
申请号:CN202411318602.1
申请日:2024-09-20
Applicant: 济南大学
IPC: G06V10/74 , G06V10/82 , G06V10/774 , G06V10/44 , G06V10/75 , G06V30/18 , G06N3/0499 , G06N3/0455 , G06N3/08 , G06V20/52
Abstract: 本发明提供了一种文本到图像跨模态行人重识别方法及系统,所述方案包括:获取待查询文本描述及其对应图像库;对于所述文本描述及图像库,分别利用预先训练的图像和文本特征编码器,获得文本特征和图像库中图像样本的图像特征;其中,所述图像和文本特征编码器的训练的损失函数包括整体匹配损失、局部匹配损失以及文本掩码预测损失;基于获得的文本特征和图像库中图像样本图像特征,通过相似度计算,确定与待查询文本描述相对应的图像,实现文本到图像跨模态行人重识别。
-
公开(公告)号:CN118447487B
公开(公告)日:2025-03-18
申请号:CN202410664375.1
申请日:2024-05-27
Applicant: 济南大学
IPC: G06V20/59 , G06V40/20 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明提出了一种基于局部与全局知识蒸馏的驾驶分心检测方法及系统,通过在教师网络中引入分组卷积技术能够有效降低模型的参数量和计算复杂度,同时保持特征提取的有效性,使得模型在有限的计算资源下仍能提取丰富的特征信息。引入了注意力机制,能够使模型自适应地关注图像中与驾驶分心行为最相关的区域,显著提升了特征的表征能力,使得模型能够更加专注于关键信息;采用局部蒸馏和全局蒸馏相结合的方式,使得学生网络在推理阶段能够更全面地分析驾驶员行为,提高检测的准确性,使得学生网络能够在保持较低参数量的情况下达到与教师网络相近的检测精度。
-
公开(公告)号:CN118736536A
公开(公告)日:2024-10-01
申请号:CN202410730294.7
申请日:2024-06-06
Applicant: 济南大学
Abstract: 本发明公开了基于外观姿态融合网络的分心驾驶行为识别方法及系统,其中方法,包括:训练后的外观姿态融合网络,用于基于人体姿态估计算法对驾驶行为视频数据进行处理,得到驾驶员上半身的关节坐标,根据所述关节坐标得到骨骼数据;将关节坐标输入到第一图卷积网络中,得到关节特征;将骨骼数据,输入到第二图卷积网络中,得到骨骼特征;将驾驶行为视频数据,输入到混合卷积网络中,得到外观特征;将关节特征和骨骼特征进行融合得到一级融合特征;将一级融合特征与外观特征进行融合得到二级融合特征;对二级融合特征进行分类,得到驾驶行为识别结果。
-
公开(公告)号:CN117257308A
公开(公告)日:2023-12-22
申请号:CN202311422803.1
申请日:2023-10-30
Applicant: 济南大学
IPC: A61B5/18 , G06V20/59 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/048 , G06N3/094 , G06N3/0464 , G06F18/213 , G06F18/25 , G06F18/24
Abstract: 本发明属于计算机视觉领域,尤其涉及一种基于驾驶员眼动信息的驾驶员认知分心检测方法及系统,方法包括:获取驾驶员驾驶过程中的驾驶环境图像和驾驶员的眼动信息;对驾驶员的眼动信息进行预处理得到眼动注意力热图;基于多尺度融合对抗网络对当前帧的眼动注意力热图和驾驶环境图像进行多尺度特征提取以及多尺度特征融合后,得到当前帧的第一分类标签;将当前帧的多视图多尺度特征输入至时空融合网络中得到当前帧的第二分类标签;将当前帧的第一分类标签和第二分类标签进行加权融合后得到最终的驾驶员认知分心检测结果。本发明基于深度学习的激活与反向激活融合对抗网络对驾驶环境图像和眼动注意力热图进行特征融合,提高识别精度。
-
公开(公告)号:CN118447487A
公开(公告)日:2024-08-06
申请号:CN202410664375.1
申请日:2024-05-27
Applicant: 济南大学
IPC: G06V20/59 , G06V40/20 , G06V10/82 , G06N3/0464 , G06N3/096
Abstract: 本发明提出了一种基于局部与全局知识蒸馏的驾驶分心检测方法及系统,通过在教师网络中引入分组卷积技术能够有效降低模型的参数量和计算复杂度,同时保持特征提取的有效性,使得模型在有限的计算资源下仍能提取丰富的特征信息。引入了注意力机制,能够使模型自适应地关注图像中与驾驶分心行为最相关的区域,显著提升了特征的表征能力,使得模型能够更加专注于关键信息;采用局部蒸馏和全局蒸馏相结合的方式,使得学生网络在推理阶段能够更全面地分析驾驶员行为,提高检测的准确性,使得学生网络能够在保持较低参数量的情况下达到与教师网络相近的检测精度。
-
-
-
-
-
-