-
公开(公告)号:CN112598729B
公开(公告)日:2022-12-23
申请号:CN202011550921.7
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
IPC: G06T7/70 , G06T7/80 , G06V20/10 , G06V10/774 , B25J9/16
Abstract: 本发明公开一种融合激光与相机的目标物体识别与定位方法,包括:S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;S2、将采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;S3、将目标物体中心的图像坐标转换为空间坐标Pcam,计算目标物体中心距雷达及相机所在平面的距离dcam;S4、激光雷达通过点云图像获取目标物体中心的空间坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas;S5、计算距离偏差ddis=|dlas‑dcam|,若距离偏差大于或等于阈值dp,则执行步骤S1,若距离偏差小于阈值dp,则返回目标物体的中心坐标。对相机定位与雷达定位结果进行相互校准,通过这种方式来提高识别准确度和定位精度。
-
公开(公告)号:CN112598729A
公开(公告)日:2021-04-02
申请号:CN202011550921.7
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
Abstract: 本发明公开一种融合激光与相机的目标物体识别与定位方法,包括:S1、启动激光雷达获取扫描点云,同时启动双目相机采集图像;S2、将采集到的两帧图像输入神经网络模型,依次输出两帧带区域框的目标物体图像,计算目标物体中心的图像坐标;S3、将目标物体中心的图像坐标转换为空间坐标Pcam,计算目标物体中心距雷达及相机所在平面的距离dcam;S4、激光雷达通过点云图像获取目标物体中心的空间坐标Plas,及该目标物体中心距激光及相机所在平面的距离dlas;S5、计算距离偏差ddis=|dlas‑dcam|,若距离偏差大于或等于阈值dp,则执行步骤S1,若距离偏差小于阈值dp,则返回目标物体的中心坐标。对相机定位与雷达定位结果进行相互校准,通过这种方式来提高识别准确度和定位精度。
-
公开(公告)号:CN112731932B
公开(公告)日:2022-12-23
申请号:CN202011550760.1
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
IPC: G05D1/02
Abstract: 本发明公开了一种移动机器人的路径跟踪方法,所述方法具体包括如下步骤:S1、将规划路径分割成轨迹点,放入轨迹点集;S2、基于移动机器人在上一时刻的移动速度确定当前的跟踪距离L,基于当前的跟踪距离形成下一预瞄点及下一预瞄点所在的预瞄直线;S3、基于移动机器人当前位置与预瞄直线的垂直距离Tlen及当前位姿与预瞄直线的夹角θ确定移动机器人当前的移动线速度;S4、计算出移动机器人虚拟转向轮的转向控制角,基于当前虚拟转向轮的转向控制角及移动线速度来确定左转向轮及右转向轮的速度。该方法能够在保证车辆稳定的前提下,有效地实现移动机器人预期路径的跟踪,具有响应速度快、跟踪误差小及鲁棒性强的特点,适应各种路径下的跟踪。
-
公开(公告)号:CN112731932A
公开(公告)日:2021-04-30
申请号:CN202011550760.1
申请日:2020-12-24
Applicant: 哈尔滨工业大学芜湖机器人产业技术研究院
IPC: G05D1/02
Abstract: 本发明公开了一种移动机器人的路径跟踪方法,所述方法具体包括如下步骤:S1、将规划路径分割成轨迹点,放入轨迹点集;S2、基于移动机器人在上一时刻的移动速度确定当前的跟踪距离L,基于当前的跟踪距离形成下一预瞄点及下一预瞄点所在的预瞄直线;S3、基于移动机器人当前位置与预瞄直线的垂直距离Tlen及当前位姿与预瞄直线的夹角θ确定移动机器人当前的移动线速度;S4、计算出移动机器人虚拟转向轮的转向控制角,基于当前虚拟转向轮的转向控制角及移动线速度来确定左转向轮及右转向轮的速度。该方法能够在保证车辆稳定的前提下,有效地实现移动机器人预期路径的跟踪,具有响应速度快、跟踪误差小及鲁棒性强的特点,适应各种路径下的跟踪。
-
-
-