一种基于最佳观测面分类的三维目标检测方法

    公开(公告)号:CN118429956A

    公开(公告)日:2024-08-02

    申请号:CN202410384958.9

    申请日:2024-04-01

    Inventor: 彭刚 周奕成

    Abstract: 本发明属于自动驾驶、移动机器人环境感知技术领域,具体涉及一种基于最佳观测面分类的三维目标检测方法,包括:对三维点云聚类;确定聚类目标在空间水平面中的朝向向量,在水平面内垂直于朝向向量且经聚类目标的平均点的直线轴上确定最佳观测点,构建以观测点为原点、以观测点指向平均点的方向为x轴正向的最佳观测坐标系;将聚类目标点云转换到最佳观测坐标系中;根据点云在最佳观测坐标系中的水平偏航角范围以及垂直俯仰角范围,将新坐标系下的聚类目标点云缩放映射到y‑z平面上,得到最佳观测面,每个像素点取值为聚类目标对应点到最佳观测坐标系原点的欧式距离;基于最佳观测面进行目标分类。本发明能提升不同环境下目标检测的鲁棒性。

    基于多传感器紧耦合的移动机器人位姿估计方法和系统

    公开(公告)号:CN113436260B

    公开(公告)日:2022-04-19

    申请号:CN202110702106.6

    申请日:2021-06-24

    Abstract: 本发明公开了一种基于多传感器紧耦合的移动机器人位姿估计方法和系统,属于机器人定位技术领域,其中方法包括:对相机采集的当前帧RGB‑D图像与上一帧RGB‑D图像进行特征匹配,计算匹配过程的视觉重投影误差;对IMU测量的数据进行积分,构建IMU积分残差;从激光雷达采集的点云中提取边缘特征点和平面特征点,计算边缘特征点到边缘线的距离以及平面特征点到平面的距离,构建激光点云几何残差;以视觉重投影误差、IMU积分残差和激光点云几何残差最小为目标,进行位姿估计,得到局部位姿;使用局部位姿更新激光点云地图后在激光点云地图上进行全局优化,得到全局位姿。本发明提高了移动机器人在复杂运动和复杂环境下的定位精度和鲁棒性。

    基于多传感器紧耦合的移动机器人位姿估计方法和系统

    公开(公告)号:CN113436260A

    公开(公告)日:2021-09-24

    申请号:CN202110702106.6

    申请日:2021-06-24

    Abstract: 本发明公开了一种基于多传感器紧耦合的移动机器人位姿估计方法和系统,属于机器人定位技术领域,其中方法包括:对相机采集的当前帧RGB‑D图像与上一帧RGB‑D图像进行特征匹配,计算匹配过程的视觉重投影误差;对IMU测量的数据进行积分,构建IMU积分残差;从激光雷达采集的点云中提取边缘特征点和平面特征点,计算边缘特征点到边缘线的距离以及平面特征点到平面的距离,构建激光点云几何残差;以视觉重投影误差、IMU积分残差和激光点云几何残差最小为目标,进行位姿估计,得到局部位姿;使用局部位姿更新激光点云地图后在激光点云地图上进行全局优化,得到全局位姿。本发明提高了移动机器人在复杂运动和复杂环境下的定位精度和鲁棒性。

Patent Agency Ranking