-
公开(公告)号:CN118276576A
公开(公告)日:2024-07-02
申请号:CN202410293817.6
申请日:2024-03-14
Applicant: 复旦大学
Abstract: 本发明涉及一种无人车自主跟随方法和装置,方法包括:获取无人车所在区域的局部地图,通过传感器获取三维点云信息,将三维点云信息映射到局部地图中,构建2.5D的高程地图,该高程地图为二维栅格地图,该二维栅格地图内的各个栅格均包含对应栅格坐标处地形的高度值和方差;在高程地图中,以无人车当前所在栅格区域为当前点,并设置目标点和障碍物集,采用包含无人车的动力学约束的全局路径规划算法,获取从当前点到目标点之间的全局路径;基于微分平坦采用四阶B样条拟合全局路径,设定目标函数和约束,求解后获取最优的无人车跟随轨迹。与现有技术相比,本发明实现了在环卫场景下无人车的自主跟随能力,并且能够很好地进行碰撞避免和目标跟随。
-
公开(公告)号:CN118196754A
公开(公告)日:2024-06-14
申请号:CN202410293818.0
申请日:2024-03-14
Applicant: 复旦大学
Abstract: 本发明涉及一种面向自主随动小车的多尺度目标特征检测方法和装置,方法包括:采集目标人物图像,并进行标注,制作成训练用数据集;对YOLOv5模型中的Focus模块和PANet模块进行优化,并添加CBAM注意力机制模块,得到优化后的YOLOv5模型;采用优化后的YOLOv5模型在行人数据集上进行训练,得到预训练模型;采用预训练模型在所述训练用数据集上进行训练,得到最终模型;将所述最终模型部署到自主随动小车中,通过摄像头采集图像,实现对目标人物的实时检测。与现有技术相比,本发明能够在自主随动小车在面对多尺度问题时,准确识别出目标对象,提高检测精度。
-
公开(公告)号:CN116934794A
公开(公告)日:2023-10-24
申请号:CN202310695587.1
申请日:2023-06-13
Applicant: 复旦大学
IPC: G06T7/20 , G06N3/0464 , G06N3/0455 , G06N3/084 , G06T3/40
Abstract: 本发明涉及一种面向随动小车夜间工况下的多模态目标跟随方法和系统,方法包括在小车进行目标跟随过程中,分别采集RGB图像、深度图像和红外图像,将RGB图像和红外图像载入预先建立并训练好的YOLOv5‑RTFT目标检测网络中,进行目标检测,从而根据目标中心与取景框中心判断小车的转向角,进行目标跟踪;并基于深度图像,判断跟踪目标与小车之间的距离,实现目标跟随;YOLOv5‑RTFT目标检测网络为双通路网络,并设置了RGB图像与红外图像模态融合的RTTF模块。与现有技术相比,本发明提升了模型在夜晚识别的精度,能够实现小车对目标的自动跟随,节省了人力物力,提高了效率。
-
-