-
公开(公告)号:CN117889838A
公开(公告)日:2024-04-16
申请号:CN202311649087.0
申请日:2023-12-04
Applicant: 北京理工大学
Abstract: 本发明涉及一种基于无人机视角语义分割的导航地图构建方法,属于多机器人协同探索领域。该发明主要利用了无人机能够从空中获取俯瞰视角图像的优势,实现复杂环境下对探索目标的语义分割,获取目标颜色分布以及位置信息。语义分割能够准确地识别和分割出复杂环境下的目标对象和杂乱背景,从而为后续的地图构建提供准确的信息。语义分割结果可以直接区分出目标对象的轮廓,根据轮廓嵌入内接图形实现精准的感兴趣区域划分,获取区域内目标的颜色分布。基于颜色分布进行阈值化处理,生成一个简化且清晰的环境小地图。最后,使用ROS平台将这个小地图发布给地面机器人,使其能够实现自主导航。本发明的方法更加简洁且准确,语义分割的优势更加明显。
-
公开(公告)号:CN117685948A
公开(公告)日:2024-03-12
申请号:CN202311482053.7
申请日:2023-11-08
Applicant: 北京理工大学
IPC: G01C21/00 , G06T17/05 , G06V20/17 , G06V10/25 , G06V10/26 , G06V10/56 , G06V10/77 , G06V10/762 , G06V10/764 , G06T5/70 , G06T5/20 , G01C21/20
Abstract: 本发明涉及一种基于无人机视角的地面导航地图构建方法,属于机器人技术领域该发明主要通过无人机在空中获取俯瞰视角图像,一次性捕获大部分环境信息。在获取图像后,采用独特的视觉处理技术,提取环境主要颜色,引入多层次的颜色阈值,划分出包含探索障目标的感兴趣区域。经过HSV颜色空间与YCbCr颜色空间鲁棒筛选与降噪去斑后,得到适用于地面机器人导航的黑白环境小地图。该处理方法不仅提高了图像的清晰度,还确保了算法在不同的环境和光线条件下都具有很好的鲁棒性。最后,使用ROS平台将地图发布给地面机器人,实现自主导航,适用于需要精确地图信息的场景。
-
公开(公告)号:CN118189959A
公开(公告)日:2024-06-14
申请号:CN202410290246.0
申请日:2024-03-14
Applicant: 北京理工大学
IPC: G01C21/20 , G01C21/16 , G01C21/00 , G06T7/73 , G06T7/269 , G06T7/277 , G06V10/44 , G06V10/46 , G06V10/82
Abstract: 本发明涉及一种基于YOLO姿态估计的无人机目标定位方法,属于无人机探索以及目标追踪领域。该方法首先通过无人机前视摄像头获取前方视野原始环境信息,并结合IMU数据,使用光流法及预积分处理解算无人机在地面坐标系下的定位;接着,利用深度学习中的YOLO网络进行目标特征点检测,并通过特征点的非极大值抑制、连通域分析等步骤精确地识别和定位目标;最后,结合相机和IMU的相对位置,使用卡尔曼滤波对目标的三维坐标进行融合处理,以实现准确的目标定位。此方法特别适用于复杂环境下的目标追踪和定位,优于传统目标定位方法。
-
-