-
公开(公告)号:CN115941872B
公开(公告)日:2023-06-16
申请号:CN202310076491.7
申请日:2023-02-08
Applicant: 吉林大学
IPC: H04N7/01 , H04N5/265 , G06N3/0464
Abstract: 本发明涉及模式识别技术领域,具体涉及一种水下高速移动目标的视频插帧方法即其系统。步骤1:通过传统相机获取RGB数据;步骤2:基于步骤1的RGB图像,抽离出RGB图像的背景轮廓图;步骤3:利用步骤2的背景轮廓图和步骤1得到的RGB数据经过轮廓图辅助多尺度光流估计网络进行光流估计;步骤4:利用RGB数据和步骤3估计的光流经过光流优化网络对光流结果进行优化;步骤5:利用网型融合网络,融合帧光流估计网络与光流优化网络输出的光流结果,对光流结果进行扭曲得到的中间帧,最终输出中间帧。本发明用以解决现有技术中无法非常准确地还原出非线性运动两帧间的中间帧的问题。
-
公开(公告)号:CN115761905A
公开(公告)日:2023-03-07
申请号:CN202310024324.8
申请日:2023-01-09
Applicant: 吉林大学
IPC: G06V40/20 , G06V10/774 , G06V10/82 , G06V20/05 , G06N3/042
Abstract: 本发明是一种基于骨骼关节点的潜水员动作识别方法。本发明涉及图像处理技术领域,本发明通过水下摄影机获取RGB动作数据,经过姿态估计方法提取出人体骨骼数据;对姿态估计得到相关数据再进行处理得到本次实验数据;对于骨骼数据使用图卷积公式建立模型,按照运动特征将骨骼点划为三类;针对数据特征建立了时序‑通道聚合图卷积网络;网络模型结构最后经过一个全连接层得到潜水员动作的识别。通过本申请中的技术方案,实现了基于潜水员骨骼点的动作识别,提高了识别的精度,为实现水下作业人机交互应用提供了方法。
-
-
公开(公告)号:CN116935203A
公开(公告)日:2023-10-24
申请号:CN202311195467.1
申请日:2023-09-18
Applicant: 吉林大学
IPC: G06V20/05 , G06N3/042 , G06N3/0464 , G06N3/08 , G06V10/44 , G06V10/764 , G06V10/80 , G06V10/82 , G01S15/86 , G01S7/539 , G01S15/88 , G01C21/00
Abstract: 一种基于声光融合的潜水员智能监控方法和系统,涉及水下声呐与图像融合技术领域。解决现有水下手势识别会损失一些手势动作的细节和空间信息的问题。所述系统包括:多模态基准数据集获取单元,采集潜水员在水下的视频和声呐模态数据;数据处理单元,对视频视频和声呐模态数据进行估计处理,获取潜水员的行为关键点数据、位置和运动状态;非自然依赖超图建立单元,建立超边和非自然依赖超图;动态跨时间点超图获取单元,采用时间特征生成方法处理非自然依赖超图,获取动态跨时间点超图;综合特征模型构建单元,根据时空特征建模方法和动态跨时间点超图,构建综合特征模型;输出单元,输出潜水员的动态监控识别结果。本发明应用于水下人机交互领域。
-
公开(公告)号:CN115941872A
公开(公告)日:2023-04-07
申请号:CN202310076491.7
申请日:2023-02-08
Applicant: 吉林大学
IPC: H04N7/01 , H04N5/265 , G06N3/0464
Abstract: 本发明涉及模式识别技术领域,具体涉及一种水下高速移动目标的视频插帧方法即其系统。步骤1:通过传统相机获取RGB数据;步骤2:基于步骤1的RGB图像,抽离出RGB图像的背景轮廓图;步骤3:利用步骤2的背景轮廓图和步骤1得到的RGB数据经过轮廓图辅助多尺度光流估计网络进行光流估计;步骤4:利用RGB数据和步骤3估计的光流经过光流优化网络对光流结果进行优化;步骤5:利用网型融合网络,融合帧光流估计网络与光流优化网络输出的光流结果,对流光结果进行扭曲得到的中间帧,最终输出中间帧。本发明用以解决现有技术中无法非常准确地还原出非线性运动两帧间的中间帧的问题。
-
-
-
-