一种深度网络与滤波结合的定位方法

    公开(公告)号:CN115046545B

    公开(公告)日:2024-12-13

    申请号:CN202210348112.0

    申请日:2022-03-29

    Abstract: 本发明公开了一种深度网络与滤波结合的定位方法,步骤一:建议视觉惯性里程计运动学模型;步骤二:将时序上相邻k+1帧图像视频序列输入堆叠网络,组合相邻帧的图像得到k组图像对;步骤三:k组图像对输入CNN‑LSTM‑ATT‑VO网络后输出6‑dof的位姿估计Δx,Δy,Δz,#imgabs0#Δλ,Δψ,其中Δx,Δy,Δz分别为x轴、y轴和z轴平移量,#imgabs1#Δλ,Δψ分别为绕x轴、y轴和z轴旋转量;所述网络依次包括卷积神经网络、CBAM模块、LSTM网络和全连接层;步骤四:通过基于李群的以机器人为中心的Kalman滤波算法进行视觉惯性里程计的融合定位。本发明提高了系统的鲁棒性并提高了协同定位精度,避免了传统EKF算法的不一致性。

    一种基于深度学习目标检测的动态环境SLAM方法

    公开(公告)号:CN119048824A

    公开(公告)日:2024-11-29

    申请号:CN202411166231.X

    申请日:2024-08-23

    Abstract: 本发明公开了一种基于深度学习目标检测的动态环境SLAM方法,包括:基于视觉SLAM前端获取多相机输入图像,并进行去畸变处理,将去畸变后的点投影到像素平面上,获得目标图像;提取所述多相机输入图像中的特征点;在多相机输入的不同图像之间进行特征匹配,进行特征关联,实现不同相机之间对于同一特征点跨相机跟踪;根据特征点来源对特征点进行类别;根据分类结果筛选特征点;对于通过筛选的特征点,按照不同的特征点类别构建残差方程进行优化,输出位姿。本发明提出基于多相机图像的SLAM方法,最大限度的利用多相机提供的更丰富的环境信息,实现更鲁棒的视觉惯性SLAM方法。

    一种深度网络与滤波结合的定位方法

    公开(公告)号:CN115046545A

    公开(公告)日:2022-09-13

    申请号:CN202210348112.0

    申请日:2022-03-29

    Abstract: 本发明公开了一种深度网络与滤波结合的定位方法,步骤一:建议视觉惯性里程计运动学模型;步骤二:将时序上相邻k+1帧图像视频序列输入堆叠网络,组合相邻帧的图像得到k组图像对;步骤三:k组图像对输入CNN‑LSTM‑ATT‑VO网络后输出6‑dof的位姿估计Δx,Δy,Δz,Δλ,Δψ,其中Δx,Δy,Δz分别为x轴、y轴和z轴平移量,Δλ,Δψ分别为绕x轴、y轴和z轴旋转量;所述网络依次包括卷积神经网络、CBAM模块、LSTM网络和全连接层;步骤四:通过基于李群的以机器人为中心的Kalman滤波算法进行视觉惯性里程计的融合定位。本发明提高了系统的鲁棒性并提高了协同定位精度,避免了传统EKF算法的不一致性。

Patent Agency Ranking