-
公开(公告)号:CN117589151A
公开(公告)日:2024-02-23
申请号:CN202311549469.6
申请日:2023-11-20
Applicant: 吉林大学
IPC: G01C21/00 , G01C21/16 , G01S17/86 , G01S19/45 , G06V20/58 , G06V10/25 , G06V10/46 , G06V10/82 , G06T7/246 , G06T7/269 , G06T7/30 , G06T7/73
Abstract: 本发明适用于自动驾驶技术领域,提供了一种融合词袋模型的动态场景自主定位与建图方法,包括以下步骤:录制环境数据;构建点云地图并将地图对齐到大地坐标系,选取视觉关键帧,并保存其对应的位姿;将视觉关键帧中的动态特征剔除,生成词袋向量,将词袋向量与位姿构成映射关系,保存为词袋模型;定位过程中,将构建的点云地图进行预处理,利用相机采集图像的静态特征生成词袋向量,在构建的词袋模型中检索,映射出车辆的初始位置;在完成定位初始化后,进行配准,利用词袋模型与GPS/IMU融合提供配准初值,实时输出车辆的位姿信息。本发明解决了SLAM框架无法获取绝对位姿,GPS等信号容易受到遮挡造成自主泊车定位信息缺失的问题。
-
公开(公告)号:CN116558522A
公开(公告)日:2023-08-08
申请号:CN202310464311.2
申请日:2023-04-27
Applicant: 吉林大学
Abstract: 本发明适用于激光雷达定位技术领域,提供了一种基于激光视觉融合数据的大场景重定位方法,包括如下步骤:步骤1:创建激光点云地图;利用车载激光雷达对大场景环境进行建图,生成激光点云地图;步骤2:获取初始位姿估计值;根据步骤1创建的激光点云地图,利用当前获取的点云帧,与地图中的特征点进行匹配,并进行优化,最终计算得到车辆当前位姿;步骤3:根据视觉数据进行匹配获取位姿;首先对图像信息提取特征点,计算描述子;根据当前图像已有的特征向量进行匹配,计算出图像与地图之间的相对位姿变换,并优化位姿以便获得更精确的位姿估计值;步骤4:获取重定位位姿。
-
公开(公告)号:CN116381713A
公开(公告)日:2023-07-04
申请号:CN202310357065.0
申请日:2023-04-06
Applicant: 吉林大学
Abstract: 本发明适用于自动驾驶技术领域领域,提供了本发明的目的在于提供一种多传感器点云融合的动态场景车辆自主定位与建图方法,包括以下步骤:利用深度相机与多线激光雷达观测周围环境,按照一定频率对周围环境采集RGB图像、深度图像与点云数据,启动IMU,获得若干帧车辆的初始位姿数据;将RGB图像转换成灰度图,并提取FAST特征点,在灰度图相邻帧之间进行L‑K光流法追踪,并计算特征点的相对移动速度,标记动态特征点;将在相同时间戳下对应的点云数据栅格化展开,点云降噪、BFS聚类,剔除动态特征点所在的类,并对静态环境点云进行分割、降采样;利用得到的静态点云数据结合求得的位姿信息进行车辆同步定位与环境建图。
-
-