-
公开(公告)号:CN115371662B
公开(公告)日:2024-06-25
申请号:CN202211002350.2
申请日:2022-08-22
Applicant: 北京化工大学
IPC: G01C21/00
Abstract: 本发明公开了一种基于概率栅格移除动态对象的静态地图构建方法。首先,对采集到的激光雷达数据、IMU数据和GPS数据进行紧耦合,从而得到一个关键帧的数据集合。其次,采用极坐标的方式,选择激光雷达强度作为描述子对关键帧的数据集合进行处理,得到带有描述子的关键帧的栅格图和关键帧对应子地图的栅格图。再次,对带有描述子关键帧的栅格图和关键帧对应子地图的栅格图进行比较,找到子地图中的动态区域,对动态区域进行平面拟合,得到平面方程。最后,剔除动态区域中平面方程上方的点云,得到三维静态点云地图。本发明能够应用于动态环境下构建三维静态点云地图中。
-
公开(公告)号:CN115965686A
公开(公告)日:2023-04-14
申请号:CN202211522204.2
申请日:2022-11-30
Applicant: 北京化工大学
Abstract: 一种融合点线特征的半直接视觉定位方法,属于三维视觉领域。利用单目相机连续获取图像,分别对每一个图像帧提取点特征和线特征,并基于特征描述子匹配当前帧和前一帧的特征,基于对极几何约束估计相邻帧间位姿变换并初始化三维地图;基于稀疏特征像素对齐方法进行当前帧的位姿估计,若位姿估计失败,则提取当前帧的点特征和线特征,最小化点线特征的重投影误差重新估计相机位姿;基于相机的运动约束提取关键帧,并对关键帧提取点特征和线特征,生成新的地图点和地图线,更新三维地图;进行回环检测,基于点线融合的BA进一步优化相机位姿和空间点位置,降低累积误差。本发明解决了单目视觉定位方法在低纹理场景下由于点特征不足导致的跟踪失败。
-
公开(公告)号:CN115371662A
公开(公告)日:2022-11-22
申请号:CN202211002350.2
申请日:2022-08-22
Applicant: 北京化工大学
IPC: G01C21/00
Abstract: 本发明公开了一种基于概率栅格移除动态对象的静态地图构建方法。首先,对采集到的激光雷达数据、IMU数据和GPS数据进行紧耦合,从而得到一个关键帧的数据集合。其次,采用极坐标的方式,选择激光雷达强度作为描述子对关键帧的数据集合进行处理,得到带有描述子的关键帧的栅格图和关键帧对应子地图的栅格图。再次,对带有描述子关键帧的栅格图和关键帧对应子地图的栅格图进行比较,找到子地图中的动态区域,对动态区域进行平面拟合,得到平面方程。最后,剔除动态区域中平面方程上方的点云,得到三维静态点云地图。本发明能够应用于动态环境下构建三维静态点云地图中。
-
公开(公告)号:CN115420276A
公开(公告)日:2022-12-02
申请号:CN202211047352.3
申请日:2022-08-29
Applicant: 北京化工大学
IPC: G01C21/00 , G01C21/16 , G01S17/86 , G01S17/89 , G01S19/45 , G01S19/47 , G06T3/40 , G06T7/73 , G06T17/05 , G06T19/00 , G06T19/20
Abstract: 本发明公开了一种面向室外场景的多机器人协同定位与建图方法,属于同步定位与建图领域。针对室外场景复杂多样的特点,为兼顾系统鲁棒性与高效性,本发明首先采用多个机器人所搭载的激光雷达、IMU、GPS获取环境及自身运动信息以建立多传感器紧耦合框架保证系统鲁棒性;其次构建因子图优化框架并加入雷达里程计因子、IMU预积分因子、回环因子实现单一机器人同步定位与地图构建,所述回环因子通过联合GPS实时观测数据与三维点云描述符构建;再次,机器人端以数据包的形式上传所提取点云描述子与自身位姿等信息至服务器端。最后,采用一种高效的描述子匹配算法在服务器端实现机器人间关键帧匹配,据此实现多机器人位姿融合与全局地图构建。
-
公开(公告)号:CN115355901B
公开(公告)日:2024-09-17
申请号:CN202210999273.6
申请日:2022-08-19
Applicant: 北京化工大学
Abstract: 本发明公开了一种融合动态目标感知的多机联合建图方法,属于三维视觉领域。首先,采用基于YOLACT和DeepSORT的多目标跟踪算法,在机器人端对连续采集的RGB图像帧进行潜在动态目标跟踪,并结合光流法分析目标运动状态,进而剔除动态特征点;其次,基于图像帧中的静态特征点和IMU数据,采用紧耦合的视觉惯性里程计进行相机位姿跟踪,并投影关键帧上的静态特征点到三维空间,从而增量式构建单机的静态子地图;再次,在服务器端接收子地图数据和关键帧数据以重建子地图,并基于词袋模型进行不同子地图之间的回环检测;最后,基于位姿图融合算法在服务器端实现全局一致的相机位姿估计和地图融合。本发明提升了多机协同视觉联合建图方法在动态场景下的鲁棒性,实现了全局一致的地图构建。
-
公开(公告)号:CN115420276B
公开(公告)日:2024-07-26
申请号:CN202211047352.3
申请日:2022-08-29
Applicant: 北京化工大学
IPC: G01C21/00 , G01C21/16 , G01S17/86 , G01S17/89 , G01S19/45 , G01S19/47 , G06T3/4038 , G06T7/73 , G06T17/05 , G06T19/00 , G06T19/20
Abstract: 本发明公开了一种面向室外场景的多机器人协同定位与建图方法,属于同步定位与建图领域。针对室外场景复杂多样的特点,为兼顾系统鲁棒性与高效性,本发明首先采用多个机器人所搭载的激光雷达、IMU、GPS获取环境及自身运动信息以建立多传感器紧耦合框架保证系统鲁棒性;其次构建因子图优化框架并加入雷达里程计因子、IMU预积分因子、回环因子实现单一机器人同步定位与地图构建,所述回环因子通过联合GPS实时观测数据与三维点云描述符构建;再次,机器人端以数据包的形式上传所提取点云描述子与自身位姿等信息至服务器端。最后,采用一种高效的描述子匹配算法在服务器端实现机器人间关键帧匹配,据此实现多机器人位姿融合与全局地图构建。
-
公开(公告)号:CN115355901A
公开(公告)日:2022-11-18
申请号:CN202210999273.6
申请日:2022-08-19
Applicant: 北京化工大学
Abstract: 本发明公开了一种融合动态目标感知的多机联合建图方法,属于三维视觉领域。首先,采用基于YOLACT和DeepSORT的多目标跟踪算法,在机器人端对连续采集的RGB图像帧进行潜在动态目标跟踪,并结合光流法分析目标运动状态,进而剔除动态特征点;其次,基于图像帧中的静态特征点和IMU数据,采用紧耦合的视觉惯性里程计进行相机位姿跟踪,并投影关键帧上的静态特征点到三维空间,从而增量式构建单机的静态子地图;再次,在服务器端接收子地图数据和关键帧数据以重建子地图,并基于词袋模型进行不同子地图之间的回环检测;最后,基于位姿图融合算法在服务器端实现全局一致的相机位姿估计和地图融合。本发明提升了多机协同视觉联合建图方法在动态场景下的鲁棒性,实现了全局一致的地图构建。
-
-
-
-
-
-