-
公开(公告)号:CN113592947B
公开(公告)日:2024-03-12
申请号:CN202110872808.9
申请日:2021-07-30
Applicant: 北京理工大学
Abstract: 本发明涉及一种半直接法的视觉里程计实现方法,属于视觉空间定位技术领域。本发明针对动态场景,为了利用大部分有用的图像信息并减轻最小化光度误差的非凸性效应,采用高梯度点和ORB角点相结合的混合点提取方法,利用最小化重投影误差得到的位姿作为初始值来最小化光度误差,得到最终的相机姿态。此外,利用语义信息从点选择和光度误差生成的过程中有效消除动态特征,从而在动态场景下实现鲁棒和准确的位姿估计。本方法能够有效的降低动态物体对视觉里程计系统定位精度和鲁棒性的不利影响,在动态场景下保留了直接法的鲁棒性的同时,又提高了相机姿态估计的精确性。
-
公开(公告)号:CN113592947A
公开(公告)日:2021-11-02
申请号:CN202110872808.9
申请日:2021-07-30
Applicant: 北京理工大学
Abstract: 本发明涉及一种半直接法的视觉里程计实现方法,属于视觉空间定位技术领域。本发明针对动态场景,为了利用大部分有用的图像信息并减轻最小化光度误差的非凸性效应,采用高梯度点和ORB角点相结合的混合点提取方法,利用最小化重投影误差得到的位姿作为初始值来最小化光度误差,得到最终的相机姿态。此外,利用语义信息从点选择和光度误差生成的过程中有效消除动态特征,从而在动态场景下实现鲁棒和准确的位姿估计。本方法能够有效的降低动态物体对视觉里程计系统定位精度和鲁棒性的不利影响,在动态场景下保留了直接法的鲁棒性的同时,又提高了相机姿态估计的精确性。
-