一种基于动态视觉传感器的水下航行器接驳方法和系统

    公开(公告)号:CN117647998A

    公开(公告)日:2024-03-05

    申请号:CN202410123538.5

    申请日:2024-01-30

    Applicant: 吉林大学

    Abstract: 一种基于动态视觉传感器的水下航行器接驳方法和系统,涉及水下导航的领域。解决传统光学相机驶向对接任务中的存在动作模糊问题。所述方法包括:S1:采用4个共面的圆形光源构建矩形约束的灯环作为接驳地标;S2:根据时空滤波器和SNN构建SNN模型;S3:根据异步霍夫圆变换和SNN模型,获取接驳地标的光源坐标;S4:根据透视4点算法计算水下航行器与接驳地标之间的相对姿态,根据相对姿态调整水下航行器的航向,完成接驳任务。本发明应用于水下自主接驳领域。

    水下自主航行器路径指示方法及装置

    公开(公告)号:CN116295449A

    公开(公告)日:2023-06-23

    申请号:CN202310593764.5

    申请日:2023-05-25

    Applicant: 吉林大学

    Abstract: 水下自主航行器路径指示方法及装置,涉及运动方向指示技术领域。为解决现有技术中存在的,水下自主航行器无法应对复杂的海洋环境的技术问题,本发明提供的技术方案为:水下自主航行器路径指示方法,包括:采集海洋环境对航行器的影响因素的步骤;采集航行器的可行动动作的步骤;建立奖励函数的步骤;根据奖励函数,建立强化网络的建模步骤;采集航行器的高不确定性动作策略和对应的航行器状态,得到经验元组集合的收集步骤;随机抽取集合中的经验元组对强化网络进行训练的训练步骤;重复收集步骤和训练步骤,至达到预设次数的步骤;根据训练后的强化网络确定航行器的最佳路径的步骤。适合应用于未知水下空间内的最优路径规划工作中。

    一种基于融合事件和RGB数据的水下暗光场景重建方法

    公开(公告)号:CN115761472B

    公开(公告)日:2023-05-23

    申请号:CN202310024781.7

    申请日:2023-01-09

    Applicant: 吉林大学

    Abstract: 本发明是一种基于融合事件和RGB数据的水下暗光场景重建方法。本发明涉及水下机器视觉技术领域,本发明利用事件相机采集的水下暗光事件序列和弱曝光RGB帧构建基准数据集;针对事件序列的异步稀疏性,对每一场景事件序列采用体素网格方式进行分段化表征;利用特征编码网络对事件序列和RGB帧进行特征编码,利用基于特征金字塔的多级Transformer编码器,得到多尺度事件和RGB特征提取分支;利用多阶段残差学习,融合事件和RGB特征,利用逐级上采样特征解码器,最终输出清晰的水下重建场景。实现对事件数据和RGB数据的高效融合,并在水下暗光场景重建清晰的图像,为水下的检测、识别和追踪任务提供了鲁棒的视觉表达。

    一种水下深度图超分辨率方法

    公开(公告)号:CN115760582B

    公开(公告)日:2023-05-23

    申请号:CN202310027766.8

    申请日:2023-01-09

    Applicant: 吉林大学

    Abstract: 本发明是一种水下深度图超分辨率方法。本发明涉及超分辨率技术领域,本发明包括:步骤1通过Kinect相机采集训练时所需要的数据,步骤2确定合适的评价指标来衡量模型输出的深度图像和原始高分辨率深度图像的几何差距,本方法中使用到的是均方根误差和感知误差;步骤3搭建适用于水下环境的深度图像超分辨率网络(DSTN网络),其主要包含以下四个模块:特征融合模块、独立特征提取模块、深度图像变换器、多尺度学习模块;步骤4网络的参数更新与训练。通过本申请中的技术方案,对水下拍摄的深度图像实现超分辨率,还原水下深度图像更多的细节,从而弥补大多数深度相机拍摄的深度图的分辨率和精度都不足以满足实际应用的缺陷。

    一种水下高速移动目标的视频插帧方法及其系统

    公开(公告)号:CN115941872A

    公开(公告)日:2023-04-07

    申请号:CN202310076491.7

    申请日:2023-02-08

    Applicant: 吉林大学

    Abstract: 本发明涉及模式识别技术领域,具体涉及一种水下高速移动目标的视频插帧方法即其系统。步骤1:通过传统相机获取RGB数据;步骤2:基于步骤1的RGB图像,抽离出RGB图像的背景轮廓图;步骤3:利用步骤2的背景轮廓图和步骤1得到的RGB数据经过轮廓图辅助多尺度光流估计网络进行光流估计;步骤4:利用RGB数据和步骤3估计的光流经过光流优化网络对光流结果进行优化;步骤5:利用网型融合网络,融合帧光流估计网络与光流优化网络输出的光流结果,对流光结果进行扭曲得到的中间帧,最终输出中间帧。本发明用以解决现有技术中无法非常准确地还原出非线性运动两帧间的中间帧的问题。

    一种基于数据协同的水下高速视频插帧方法及其系统

    公开(公告)号:CN115883764A

    公开(公告)日:2023-03-31

    申请号:CN202310076493.6

    申请日:2023-02-08

    Applicant: 吉林大学

    Abstract: 一种基于数据协同的水下高速视频插帧方法及其系统。通过传统相机和事件相机分别获取RGB数据和事件数据;将获取的RGB数据和事件数据利用U型合成网络融合,获取合成结果;利用合成结果和获取的RGB数据经过三层多尺度光流估计网络进行帧光流估计;利用获取的RGB数据和事件数据经过三层多尺度光流估计网络进行事件光流估计;将融合结果、经过三层多尺度光流估计网络进行的帧光流估计结果与经过三层多尺度光流估计网络进行的事件光流估计通过U型融合网络进行融合,输出中间帧。本发明实现利用RGB数据和事件数据生成视频的中间帧,提高视频的帧率,优化在水下场景下非线性运动下插帧效果的鲁棒性。

Patent Agency Ranking