-
公开(公告)号:CN118674781A
公开(公告)日:2024-09-20
申请号:CN202410751219.9
申请日:2024-06-12
Applicant: 电子科技大学
IPC: G06T7/73 , G06T7/246 , G06T7/593 , G06V10/44 , G06V10/46 , G06V10/75 , G06V10/74 , G06V10/82 , G06N3/042 , G06N3/045 , G06N3/0464
Abstract: 本发明提出了一种融合深度学习网络的视觉SLAM方法。属于计算机视觉领域。包括以下步骤:步骤S1,系统接受输入的图像对,用深度学习提取局部特征描述符来替代传统手工设计的特征;步骤S2,基于LightGlue深度学习网络(一种用于局部特征匹配的图神经网络),在极短的时间内实现前后帧图像特征之间的精准匹配;步骤S3,对双目图像帧进行预处理,计算每个像素匹配代价的累积函数,并利用立体深度估计模块实现精确的立体视觉重建与深度估计;步骤S4,输出特征点匹配对与深度估计结果,并应用于视觉同步定位与建图(VSLAM)的实现中。通过使用深度学习提高局部特征的鲁棒性,提升图像帧之间数据关联的准确性,我们的方法在不牺牲整体效率的情况下大幅提高了系统实时定位精度。即使是在极具挑战性的低光照场景中,本文提出的VSLAM方法也能克服ORB‑SLAM2(一种基于特征点法的经典视觉SLAM框架)等流行算法可能无法稳定运行的难题,仍然可以准确地跟踪相机位置并构建环境地图。
-
公开(公告)号:CN118778043A
公开(公告)日:2024-10-15
申请号:CN202411089993.4
申请日:2024-08-09
Applicant: 电子科技大学
Abstract: 本发明提出了一种多传感器融合的水下机器人定位方法。属于水下机器人定位领域。包括以下步骤:首先通过水下机器人搭载的相机、惯性测量单元(IMU)、多普勒速度计(DVL)的多传感器组合进行数据采集;其次预处理相机和IMU测量数据并完成系统初始化;再次对DVL测量数据进行预处理;然后通过以上两步预处理之后的数据构建残差因子;再然后通过非线性优化完成传感器的数据融合和系统状态估计量的优化;最后通过优化后的系统状态估计量得到位姿估计值并进行窗口滑动。本发明提出的一种多传感器融合的水下机器人定位方法较已有的水下定位方法在定位精度和鲁棒性方面均有大幅提升。
-
公开(公告)号:CN119291694A
公开(公告)日:2025-01-10
申请号:CN202411089995.3
申请日:2024-08-09
Applicant: 电子科技大学
Abstract: 本发明提出了一种用于水下机器人定位的多普勒速度计残差构建方法。属于水下机器人定位领域。包括以下步骤:首先通过DVL(多普勒速度计)测量水下机器人的三维速度;其次通过DVL与IMU(惯性测量单元)之间的外参将DVL测量数据的参考坐标系转换到IMU坐标系;再次通过DVL和IMU传感器测量噪声参数以及DVL与IMU之间的外参,计算DVL因子协方差矩阵;然后通过系统状态估计量、DVL与IMU之间的外参和DVL及IMU测量数据计算DVL残差;最后通过系统状态估计量和DVL与IMU之间的外参计算DVL残差关于系统状态估计量的雅可比矩阵。本发明提出的一种新的适用于非线性优化的DVL残差构建方法精确地利用DVL测量数据,使基于该DVL残差构建方法的水下SLAM算法在定位精度和鲁棒性上较其他水下定位算法有大幅提升。
-
-