-
公开(公告)号:CN114018236B
公开(公告)日:2023-11-03
申请号:CN202111168147.8
申请日:2021-09-30
Applicant: 哈尔滨工程大学 , 哈尔滨聚车科技有限公司
IPC: G01C21/00 , G01C21/16 , G01S17/86 , G01S17/89 , G01S17/08 , G06V10/80 , G06V10/762 , G06V10/764
Abstract: 一种基于自适应因子图的激光视觉强耦合SLAM方法,涉及激光视觉强耦合领域。目前视觉系统与雷达系统结合不够紧密,无法动态的调整多传感器数据的融合方式和特征信息的利用程度低的问题。本发明提出的方法,包括:定义四种机器人场景,并根据采集的激光雷达与单目相机数据通过场景检测模块判断当前机器人所处场景;通过机器人所处场景预处理IMU接收到的数据,计算出两帧激光雷达数据之间机器人的相对位姿;激光里程计模块根据机器人所处的场景,使用不同的帧间匹配方式,获得两帧之间的机器人位姿;单目相机模块采集特征点信息,进行重投影误差计算。本发明适用于机器人在无GPS信息下的室内室外融合场景下的自主定位与环境感知。
-
公开(公告)号:CN114018236A
公开(公告)日:2022-02-08
申请号:CN202111168147.8
申请日:2021-09-30
Applicant: 哈尔滨工程大学 , 哈尔滨聚车科技有限公司
Abstract: 一种基于自适应因子图的激光视觉强耦合SLAM方法,涉及激光视觉强耦合领域。目前视觉系统与雷达系统结合不够紧密,无法动态的调整多传感器数据的融合方式和特征信息的利用程度低的问题。本发明提出的方法,包括:定义四种机器人场景,并根据采集的激光雷达与单目相机数据通过场景检测模块判断当前机器人所处场景;通过机器人所处场景预处理IMU接收到的数据,计算出两帧激光雷达数据之间机器人的相对位姿;激光里程计模块根据机器人所处的场景,使用不同的帧间匹配方式,获得两帧之间的机器人位姿;单目相机模块采集特征点信息,进行重投影误差计算。本发明适用于机器人在无GPS信息下的室内室外融合场景下的自主定位与环境感知。
-