-
公开(公告)号:CN117473028A
公开(公告)日:2024-01-30
申请号:CN202311424352.5
申请日:2023-10-30
Applicant: 同济大学
Abstract: 本发明公开了一种自动驾驶高精地图切片更新与下发方法,涉及自动驾驶领域,其技术方案要点包括:包括以下步骤:S1、根据车辆的起始位置,开始规划自动驾驶全局路线,并把全局路线上传到云端服务器,再由云端服务器回传给该车辆的客户端保存;S2、根据规划路线从客户端中读取全局路线地图数据。一种自动驾驶高精地图切片更新与下发方法,该方法主要是将高精地图是保存到云端,利用移动通信网络,通过空中下载技术,根据自动驾驶车辆的路线规划及实位置,动态分片下发高精地图数据到自动驾驶车辆,具有数据量小,使用灵活的优点,相较于传统的方法,不需要提前采集和内置高精地图,能够很好的适用于未来实际应用场景。
-
公开(公告)号:CN115034324A
公开(公告)日:2022-09-09
申请号:CN202210701765.2
申请日:2022-06-21
Applicant: 同济大学
Abstract: 本发明公开了一种多传感器融合感知效能增强方法,涉及多传感器融合技术领域,该方法包括以下步骤:通过感知数据信噪比、目标点航迹质量、传感器探测范围和像素数值特性四个维度对当前环境传感器的感知效能进行评估,得到相机、激光雷达和毫米波雷达在当前环境下对不同距离的各目标感知可信权重,构建基于动态事件触发的感知效能模型;采用分布式融合结构对传感器数据进行目标融合;效果是通过协同毫米波雷达、相机和激光雷达进行目标鲁棒感知,可以解决不确定的光照和天气导致毫米波雷达、相机和激光雷达性能降低甚至失效问题,进而避免自动驾驶决策和执行出现问题而引发车辆危害的行为。
-
公开(公告)号:CN115034324B
公开(公告)日:2023-05-02
申请号:CN202210701765.2
申请日:2022-06-21
Applicant: 同济大学
Abstract: 本发明公开了一种多传感器融合感知效能增强方法,涉及多传感器融合技术领域,该方法包括以下步骤:通过感知数据信噪比、目标点航迹质量、传感器探测范围和像素数值特性四个维度对当前环境传感器的感知效能进行评估,得到相机、激光雷达和毫米波雷达在当前环境下对不同距离的各目标感知可信权重,构建基于动态事件触发的感知效能模型;采用分布式融合结构对传感器数据进行目标融合;效果是通过协同毫米波雷达、相机和激光雷达进行目标鲁棒感知,可以解决不确定的光照和天气导致毫米波雷达、相机和激光雷达性能降低甚至失效问题,进而避免自动驾驶决策和执行出现问题而引发车辆危害的行为。
-
公开(公告)号:CN112882949A
公开(公告)日:2021-06-01
申请号:CN202110279040.4
申请日:2021-03-16
Applicant: 同济大学 , 深圳市未来智能网联交通系统产业创新中心
Abstract: 本发明公开了一种交通环境融合感知在环VTHIL的车联网仿真测试平台与方法,属于交通环境融合感知仿真测试技术领域,所述测试方法包括:S1:测试车辆选择通信链路测试因子,以及与测试场景相适合的应用场景测试因子进行仿真测试;S2:对测试场景中测试环境的各个模拟控制系统进行量化控制;S3:对测试场景中的相关测试数据进行采集,并进行记录存储;S4:对测试的数据结果进行分析并评估,以分析得到仿真测试的各项参数,本发明,通过对测试车辆进行车联网仿真测试,可以在高效性、高可控性和高可重复性的优势下,能够满足测试车辆在各个高危险场景测试、容错性测试等复杂高风险测试工况下的需求,进而为智能网联汽车研发验证提供了全新的测试手段。
-
公开(公告)号:CN118364617A
公开(公告)日:2024-07-19
申请号:CN202410427820.2
申请日:2024-04-10
Applicant: 同济大学
IPC: G06F30/20 , G01M17/007
Abstract: 本发明提出了一种面向自动驾驶测试的动态场景仿真与场地测试的闭环方法,包括以下步骤:步骤1、建立面向仿真测试的动态场景并进行仿真测试;步骤2、建立面向场地测试的动态场景并进行场地测试;步骤3、将仿真测试动态场景转化为场地测试动态场景,之后进行场地测试;步骤4、将场地测试动态场景转化为仿真测试动态场景,之后进行仿真测试。本发明结合虚拟仿真和封闭场地测试,生成包含动态交通参与者的动态场景,并实现仿真与场地测试的动态场景之间的互相转化。
-
公开(公告)号:CN115100618B
公开(公告)日:2024-04-12
申请号:CN202210732739.6
申请日:2022-06-27
Applicant: 同济大学
IPC: G06V20/56 , G06V10/75 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种多源异构感知信息多层级融合表征与目标识别方法,涉及感知信息处理技术领域,该方法包括以下步骤:在数据级将相机、毫米波雷达和激光雷达的感知数据融合后进行多粒度分解,进行相机图像、毫米波雷达稀疏点云数据和激光雷达点云数据表征;在特征级分别对相机、毫米波雷达和激光雷达的输出数据进行特征提取;将相机、毫米波雷达和激光雷达提取后的数据特征在不同深度上进行动态连续融合,效果是通过相机、毫米波雷达和激光雷达进行感知目标观测数据的收集,进行多层级融合,解决传感器在异常情况(遮挡、小目标和数据异常等)下目标检测的精度和鲁棒性,从而提高自动驾驶的安全性。
-
公开(公告)号:CN113049267A
公开(公告)日:2021-06-29
申请号:CN202110278921.4
申请日:2021-03-16
Applicant: 同济大学 , 深圳市未来智能网联交通系统产业创新中心
IPC: G01M17/007 , G06F30/20
Abstract: 本发明公开了一种交通环境融合感知在环VTHIL传感器物理建模方法,属于交通环境融合感知建模技术领域,包括安装在自车上的各种传感器和仿真器,所述仿真器内置有仿真云平台,且仿真云平台包括道路模拟系统、环境模拟系统、目标物控制系统、临时变更采集控制、自动控制采集系统以及数字信号模拟系统;本发明,通过将真实的交通驾驶环境在实验室内进行重构,以建立局部的交通流,同时对主要的环境物理因素进行模拟,建立亮度连续可调、色温变化的灯光系统,建立雨雾模拟系统,实现环境能见度,进而通过将以上融合到一起形成环境融合感知系统,有通用性好、仿真精度优化、能够达到较好的仿真效果。
-
公开(公告)号:CN112860575A
公开(公告)日:2021-05-28
申请号:CN202110279051.2
申请日:2021-03-16
Applicant: 同济大学 , 深圳市未来智能网联交通系统产业创新中心
IPC: G06F11/36
Abstract: 本发明公开了一种交通环境融合感知在环的自动驾驶算法仿真测试方法,属于汽车自动化控制技术领域,包括以下步骤:S1:建立算法的仿真应用场景,生成仿真应用场景中的仿真数据;S2:自车从应用场景中获取各种仿真数据的信息,并将其转换为原始信号进行发送;S3:从原始信号中识别出目标物,并发出目标物列表;S4:对来自不同传感器的目标物列表进行处理后,发出统一的目标物列表;S5:分析目标物列表,对目标物未来的状态进行预测,并规划自车的形式路径;S6:根据目标形式路径,发出加速、制动和转向控制指令;本发明通过搭建虚拟的驾驶平台,可以人为可控的复现各种现实环境无法控制或是需要高成本投入的环境数据信息,复现手段灵活,成本低。
-
公开(公告)号:CN115144828B
公开(公告)日:2024-04-12
申请号:CN202210785604.6
申请日:2022-07-05
Applicant: 同济大学
Abstract: 本发明涉及传感器融合技术领域,具体涉及一种智能汽车多传感器时空融合的自动在线标定方法,包括:同步触发多组传感器进行采集获得与传感器对应的多组采集数据。通过帧间关联的方式获得目标A的轨迹Li。将目标A的轨迹Li进行同一目标关联。对目标A的轨迹Li进行匹配并获得粗标定外参。对多组采集数据投影后,进行特征提取获得对应的边缘特征。将各种边缘特征进行原始时间戳的对准并进行特征匹配。计算获得精标定外参,通过迭代得T2。实时判断特征匹配误差是否大于上述所述最优的阈值T2,如果是持续在线标定。多传感器有相互重叠的视场就能够在重叠的视场中实现自动在线标定,减少人工标定的繁琐过程,提高标定效率。
-
公开(公告)号:CN115144828A
公开(公告)日:2022-10-04
申请号:CN202210785604.6
申请日:2022-07-05
Applicant: 同济大学
Abstract: 本发明涉及传感器融合技术领域,具体涉及一种智能汽车多传感器时空融合的自动在线标定方法,包括:同步触发多组传感器进行采集获得与传感器对应的多组采集数据。通过帧间关联的方式获得目标A的轨迹Li。将目标A的轨迹Li进行同一目标关联。对目标A的轨迹Li进行匹配并获得粗标定外参。对多组采集数据投影后,进行特征提取获得对应的边缘特征。将各种边缘特征进行原始时间戳的对准并进行特征匹配。计算获得精标定外参,通过迭代得T2。实时判断特征匹配误差是否大于上述所述最优的阈值T2,如果是持续在线标定。多传感器有相互重叠的视场就能够在重叠的视场中实现自动在线标定,减少人工标定的繁琐过程,提高标定效率。
-
-
-
-
-
-
-
-
-