-
公开(公告)号:CN113155152B
公开(公告)日:2023-01-03
申请号:CN202110273084.6
申请日:2021-03-14
Applicant: 北京工业大学
Abstract: 本发明公开了基于李群滤波的相机与惯性传感器空间关系自标定方法,采用李群描述代替传统四元数描述实现对旋转姿态变换的计算,利用李群微分方程建立基于李群描述的线性标定滤波模型。并根据李代数的物理定义,利用预测向量与观测向量乘积的方向和预测向量与观测向量之间的夹角来计算误差李代数。利用SO(4)群与李代数之间的映射关系对相机‑IMU空间关系旋转矩阵与陀螺仪常值漂移进行补偿。该方法避免了四元数描述需要存在的无法同步估计陀螺仪常值漂移问题,并且不存在基于优化方法存在的非凸问题,提高了对准精度,更适合于实际工程应用。
-
公开(公告)号:CN114581517A
公开(公告)日:2022-06-03
申请号:CN202210123895.2
申请日:2022-02-10
Applicant: 北京工业大学
Abstract: 本发明公开了一种针对复杂光照环境的改进型VINS方法,首先通过初始化过程估计相机响应函数,这一过程可以对相机成像过程进行建模和标定,之后利用该函数将光流过程从位姿与灰度的关系拆解为位姿与曝光参数以及辐照度的关系,从而能够在这一过程中估计曝光参数对于位姿估计带来的影响。通过这种方法可以将复杂光照引发的相机参数的变化整合到整体的VINS系统位姿估计中,从而使系统适应环境。最后通过真实实验使用本发明算法和传统VIINS算法对比,证明了本算法的可行性和有效性,从而完成了对基于传统VINS算法的复杂光照环境下的改进型SLAM系统的实现。
-
公开(公告)号:CN114549549A
公开(公告)日:2022-05-27
申请号:CN202210123898.6
申请日:2022-02-10
Applicant: 北京工业大学
Abstract: 本发明公开了一种动态环境下基于实例分割的动态目标建模跟踪方法,用于室外的自动驾驶或室内空间的机器人定位,对于动态环境下的动态目标干扰具有较好的鲁棒性,并能够获得运动物体的运动速度和角度信息。本发明使用RGB‑D相机作为视觉输入传感器,经过实例分割算法预处理得到先验语义信息。然后分别使用静态区域进行基于ORB特征的相机位姿解算,使用动态区域进行稀疏光流的目标跟踪获得相机坐标系下运动目标的位姿。最后进行全局的BA优化,得到更为精确的全局相机位姿和运动目标的位姿。
-
公开(公告)号:CN114581517B
公开(公告)日:2024-12-27
申请号:CN202210123895.2
申请日:2022-02-10
Applicant: 北京工业大学
Abstract: 本发明公开了一种针对复杂光照环境的改进型VINS方法,首先通过初始化过程估计相机响应函数,这一过程可以对相机成像过程进行建模和标定,之后利用该函数将光流过程从位姿与灰度的关系拆解为位姿与曝光参数以及辐照度的关系,从而能够在这一过程中估计曝光参数对于位姿估计带来的影响。通过这种方法可以将复杂光照引发的相机参数的变化整合到整体的VINS系统位姿估计中,从而使系统适应环境。最后通过真实实验使用本发明算法和传统VIINS算法对比,证明了本算法的可行性和有效性,从而完成了对基于传统VINS算法的复杂光照环境下的改进型SLAM系统的实现。
-
公开(公告)号:CN113155152A
公开(公告)日:2021-07-23
申请号:CN202110273084.6
申请日:2021-03-14
Applicant: 北京工业大学
Abstract: 本发明公开了基于李群滤波的相机与惯性传感器空间关系自标定方法,采用李群描述代替传统四元数描述实现对旋转姿态变换的计算,利用李群微分方程建立基于李群描述的线性标定滤波模型。并根据李代数的物理定义,利用预测向量与观测向量乘积的方向和预测向量与观测向量之间的夹角来计算误差李代数。利用SO(4)群与李代数之间的映射关系对相机‑IMU空间关系旋转矩阵与陀螺仪常值漂移进行补偿。该方法避免了四元数描述需要存在的无法同步估计陀螺仪常值漂移问题,并且不存在基于优化方法存在的非凸问题,提高了对准精度,更适合于实际工程应用。
-
公开(公告)号:CN114549549B
公开(公告)日:2024-04-02
申请号:CN202210123898.6
申请日:2022-02-10
Applicant: 北京工业大学
IPC: G06T7/11 , G06T7/246 , G06T7/269 , G06T7/73 , G06V10/764
Abstract: 本发明公开了一种动态环境下基于实例分割的动态目标建模跟踪方法,用于室外的自动驾驶或室内空间的机器人定位,对于动态环境下的动态目标干扰具有较好的鲁棒性,并能够获得运动物体的运动速度和角度信息。本发明使用RGB‑D相机作为视觉输入传感器,经过实例分割算法预处理得到先验语义信息。然后分别使用静态区域进行基于ORB特征的相机位姿解算,使用动态区域进行稀疏光流的目标跟踪获得相机坐标系下运动目标的位姿。最后进行全局的BA优化,得到更为精确的全局相机位姿和运动目标的位姿。
-
-
-
-
-