-
公开(公告)号:CN116878501A
公开(公告)日:2023-10-13
申请号:CN202310852579.3
申请日:2023-07-12
Applicant: 北京理工大学
Abstract: 本发明公开了一种基于多传感器融合的高精度定位与建图系统及方法,包括前端和后端,所述前端与后端连接,前端包括IMU、激光雷达和单目相机三个传感器的预处理和雷达惯性里程计与视觉惯性里程计;所述后端包括回环、因子图优化和地图;激光雷达和IMU连接雷达惯性里程计,单目相机、IMU和雷达连接视觉惯性里程计,IMU预积分、激光雷达惯性里程计、视觉惯性里程计和回环检测四大因子连接因子图优化,因子图优化连接地图;解决了目前单一传感器SLAM出现的纹理特征复杂、几何特征缺失、光照不稳定、随时间存在累积误差的问题。
-
公开(公告)号:CN116989772B
公开(公告)日:2024-01-02
申请号:CN202311248105.4
申请日:2023-09-26
Applicant: 北京理工大学
Abstract: 本发明提出一种空地多模态多智能体协同定位与建图方法,包括,获取智能体的测量数据,智能体包括无人机和无人车,无人车设置有视觉标志物;通过无人车的测量数据进行局部视角局部建图,通过无人机的测量数据进行全局视角局部建图;通过无人机对视觉标志物进行检测,当检测成功时获取无人机和无人车之间的相对位姿,利用相对位姿的转换关系进行空地视角地图融合与优化;基于回环不断检测智能体是否经过重叠区域,当检测到重叠区域时,通过匹配的关键帧建立智能体的两幅地图的关联,进行轨迹校准和相近视角地图融合与优化;根据空地视角融合与优化后的地图和相近视角融合与优化后的地图得到位姿轨迹和全局一致的地图。
-
公开(公告)号:CN116744368A
公开(公告)日:2023-09-12
申请号:CN202310800372.1
申请日:2023-07-03
Applicant: 北京理工大学
Abstract: 本发明提供一种基于云边端架构的智能协同异构空地无人系统及实现方法,以云边端架构为基础,根据各个任务算力要求的不同,将任务部署在云端服务器、边缘计算设备与执行端智能体;其中云端服务器负责算力需求最大的任务调度与高精度建图工作,边缘计算设备负责算力需求一般在线重定位、路径规划;执行端智能体负责轨迹跟踪控制与环境信息的感知;云端服务器和边缘计算设备通过云边任务垂直卸载,边缘计算设备之间通过任务水平迁移实现云边协同和边边协同。本发明云端、边缘、执行端智能体负担的任务相互独立,没有重复,各个任务之间相互配合,提高了系统的运行效率,降低了硬件的成本,提高了在陌生环境中适应性。
-
公开(公告)号:CN117765273B
公开(公告)日:2025-01-28
申请号:CN202311493318.3
申请日:2023-11-09
Applicant: 北京理工大学
IPC: G06V10/52 , G06V10/75 , G06V10/80 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/084 , G06T7/90 , G06T3/4038 , G06T3/4046
Abstract: 本发明提出一种基于多尺度多种类代价体积的实时立体匹配方法,包括,获取左右RGB图像;将所述左右RGB图像输入端到端视差预测模型;其中所述端到端视差预测模型包括特征提取模块、代价体积构建模块、代价聚合模块、视差预测模块和视差细化模块;输出视差预测结果。通过本发明提出的方法,可以精确地恢复原图大小的视差图结果。
-
公开(公告)号:CN117387598A
公开(公告)日:2024-01-12
申请号:CN202311296493.3
申请日:2023-10-08
Applicant: 北京理工大学
IPC: G01C21/00 , G06T7/73 , G06T7/246 , G06T7/277 , G06T5/80 , G06T17/05 , G06T19/20 , G01C21/16 , G01S17/86 , G01S17/89
Abstract: 本发明提出一种紧耦合轻量级的实时定位与建图方法,包括,通过惯性测量单元IMU获取无人运动系统的状态预测值,通过激光雷达获取无人运动系统的原始点云;对原始点云进行预处理;将预处理后的原始点云通过状态预测值进行运动补偿,得到去畸变点云;结合状态预测值和所述去畸变点云,通过卡尔曼滤波对无人运动系统进行状态更新,得到最优状态估计;根据最优状态估计对地图进行更新。本发明提出的方法,基于卡尔曼滤波,将激光雷达与惯导进行紧耦合,可以实现精确而实时的运动估计与建图。
-
公开(公告)号:CN117387598B
公开(公告)日:2025-01-03
申请号:CN202311296493.3
申请日:2023-10-08
Applicant: 北京理工大学 , 珠海市北理工大湾区创新研究院
IPC: G01C21/00 , G06T7/73 , G06T7/246 , G06T7/277 , G06T5/80 , G06T17/05 , G06T19/20 , G01C21/16 , G01S17/86 , G01S17/89
Abstract: 本发明提出一种紧耦合轻量级的实时定位与建图方法,包括,通过惯性测量单元IMU获取无人运动系统的状态预测值,通过激光雷达获取无人运动系统的原始点云;对原始点云进行预处理;将预处理后的原始点云通过状态预测值进行运动补偿,得到去畸变点云;结合状态预测值和所述去畸变点云,通过卡尔曼滤波对无人运动系统进行状态更新,得到最优状态估计;根据最优状态估计对地图进行更新。本发明提出的方法,基于卡尔曼滤波,将激光雷达与惯导进行紧耦合,可以实现精确而实时的运动估计与建图。
-
公开(公告)号:CN117040678B
公开(公告)日:2023-12-22
申请号:CN202311302925.7
申请日:2023-10-10
Applicant: 北京理工大学
IPC: H04J3/06
Abstract: 本发明提出一种基于硬件时间同步的时延控制方法,包括,同步实体无人车的ubuntu系统和仿真软件的windows系统的时间;在windows系统中的控制模块中创建ROS子节点,通过向实体无人车上的ROS主节点提交注册信息和话题订阅信息建立连接;将windows系统的时间戳和ubuntu系统的时间戳通过传输链路中的ROS节点进行传输;计算windows系统和ubuntu系统之间的时延时间;对实体无人车的运行数据进行实时采集;在控制模块中利用时延时间对实体无人车的自主控制算法进行设计;将运行数据发送回控制模块中,实现实体无人车的闭环运动控制。
-
公开(公告)号:CN116989772A
公开(公告)日:2023-11-03
申请号:CN202311248105.4
申请日:2023-09-26
Applicant: 北京理工大学
Abstract: 本发明提出一种空地多模态多智能体协同定位与建图方法,包括,获取智能体的测量数据,智能体包括无人机和无人车,无人车设置有视觉标志物;通过无人车的测量数据进行局部视角局部建图,通过无人机的测量数据进行全局视角局部建图;通过无人机对视觉标志物进行检测,当检测成功时获取无人机和无人车之间的相对位姿,利用相对位姿的转换关系进行空地视角地图融合与优化;基于回环不断检测智能体是否经过重叠区域,当检测到重叠区域时,通过匹配的关键帧建立智能体的两幅地图的关联,进行轨迹校准和相近视角地图融合与优化;根据空地视角融合与优化后的地图和相近视角融合与优化后的地图得到位姿轨迹和全局一致的地图。
-
公开(公告)号:CN117765273A
公开(公告)日:2024-03-26
申请号:CN202311493318.3
申请日:2023-11-09
Applicant: 北京理工大学
IPC: G06V10/52 , G06V10/75 , G06V10/80 , G06V10/82 , G06V10/774 , G06N3/0464 , G06N3/084 , G06T7/90 , G06T3/4038 , G06T3/4046
Abstract: 本发明提出一种基于多尺度多种类代价体积的实时立体匹配方法,包括,获取左右RGB图像;将所述左右RGB图像输入端到端视差预测模型;其中所述端到端视差预测模型包括特征提取模块、代价体积构建模块、代价聚合模块、视差预测模块和视差细化模块;输出视差预测结果。通过本发明提出的方法,可以精确地恢复原图大小的视差图结果。
-
公开(公告)号:CN116744368B
公开(公告)日:2024-01-23
申请号:CN202310800372.1
申请日:2023-07-03
Applicant: 北京理工大学
Abstract: 本发明提供一种基于云边端架构的智能协同异构空地无人系统及实现方法,以云边端架构为基础,根据各个任务算力要求的不同,将任务部署在云端服务器、边缘计算设备与执行端智能体;其中云端服务器负责算力需求最大的任务调度与高精度建图工作,边缘计算设备负责算力需求一般在线重定位、路径规划;执行端智能体负责轨迹跟踪控制与环境信息的感知;云端服务器和边缘计算设备通过云边任务垂直卸载,边缘计算设备之间通过任务水平迁移实现云边协同和边边协同。本发明云端、边缘、执行端智能体负担的任务相互独立,没有重复,各个任务之间相互配合,提高了系统的运行效率,降低了硬件的成本,提高了在陌生环境中适应性。
-
-
-
-
-
-
-
-
-