4D毫米波雷达与视觉自适应融合目标识别系统

    公开(公告)号:CN118155174A

    公开(公告)日:2024-06-07

    申请号:CN202410404069.4

    申请日:2024-04-06

    Applicant: 同济大学

    Abstract: 本发明涉及自动驾驶感知技术领域,提出了4D毫米波雷达与视觉自适应融合目标识别系统,包括:相机检测分支、4D毫米波雷达检测分支、气象传感器及天气检测网络、BEV融合模块,其中:相机检测分支按顺序输入周围相机的图像数据;4D毫米波雷达检测分支则输入与相机分支顺序一致的雷达点云数据;气象传感器以及天气检测网络,利用气象传感器获得当前场景的天气信息,或者利用图像视觉特性对天气检测网络进行训练后用于识别获得当前场景的天气信息;BEV融合模块具备自适应融合能力。本发明系统可以始终在不同天气环境下乃至恶劣天气保障目标识别精度。

    一种交通环境融合感知在环的自动驾驶算法仿真测试方法

    公开(公告)号:CN112860575A

    公开(公告)日:2021-05-28

    申请号:CN202110279051.2

    申请日:2021-03-16

    Abstract: 本发明公开了一种交通环境融合感知在环的自动驾驶算法仿真测试方法,属于汽车自动化控制技术领域,包括以下步骤:S1:建立算法的仿真应用场景,生成仿真应用场景中的仿真数据;S2:自车从应用场景中获取各种仿真数据的信息,并将其转换为原始信号进行发送;S3:从原始信号中识别出目标物,并发出目标物列表;S4:对来自不同传感器的目标物列表进行处理后,发出统一的目标物列表;S5:分析目标物列表,对目标物未来的状态进行预测,并规划自车的形式路径;S6:根据目标形式路径,发出加速、制动和转向控制指令;本发明通过搭建虚拟的驾驶平台,可以人为可控的复现各种现实环境无法控制或是需要高成本投入的环境数据信息,复现手段灵活,成本低。

    一种自动驾驶高精地图切片更新与下发方法

    公开(公告)号:CN117473028A

    公开(公告)日:2024-01-30

    申请号:CN202311424352.5

    申请日:2023-10-30

    Applicant: 同济大学

    Abstract: 本发明公开了一种自动驾驶高精地图切片更新与下发方法,涉及自动驾驶领域,其技术方案要点包括:包括以下步骤:S1、根据车辆的起始位置,开始规划自动驾驶全局路线,并把全局路线上传到云端服务器,再由云端服务器回传给该车辆的客户端保存;S2、根据规划路线从客户端中读取全局路线地图数据。一种自动驾驶高精地图切片更新与下发方法,该方法主要是将高精地图是保存到云端,利用移动通信网络,通过空中下载技术,根据自动驾驶车辆的路线规划及实位置,动态分片下发高精地图数据到自动驾驶车辆,具有数据量小,使用灵活的优点,相较于传统的方法,不需要提前采集和内置高精地图,能够很好的适用于未来实际应用场景。

    一种多传感器融合感知效能增强方法

    公开(公告)号:CN115034324A

    公开(公告)日:2022-09-09

    申请号:CN202210701765.2

    申请日:2022-06-21

    Applicant: 同济大学

    Abstract: 本发明公开了一种多传感器融合感知效能增强方法,涉及多传感器融合技术领域,该方法包括以下步骤:通过感知数据信噪比、目标点航迹质量、传感器探测范围和像素数值特性四个维度对当前环境传感器的感知效能进行评估,得到相机、激光雷达和毫米波雷达在当前环境下对不同距离的各目标感知可信权重,构建基于动态事件触发的感知效能模型;采用分布式融合结构对传感器数据进行目标融合;效果是通过协同毫米波雷达、相机和激光雷达进行目标鲁棒感知,可以解决不确定的光照和天气导致毫米波雷达、相机和激光雷达性能降低甚至失效问题,进而避免自动驾驶决策和执行出现问题而引发车辆危害的行为。

    一种智能汽车多传感器时空融合的自动在线标定方法

    公开(公告)号:CN115144828B

    公开(公告)日:2024-04-12

    申请号:CN202210785604.6

    申请日:2022-07-05

    Applicant: 同济大学

    Abstract: 本发明涉及传感器融合技术领域,具体涉及一种智能汽车多传感器时空融合的自动在线标定方法,包括:同步触发多组传感器进行采集获得与传感器对应的多组采集数据。通过帧间关联的方式获得目标A的轨迹Li。将目标A的轨迹Li进行同一目标关联。对目标A的轨迹Li进行匹配并获得粗标定外参。对多组采集数据投影后,进行特征提取获得对应的边缘特征。将各种边缘特征进行原始时间戳的对准并进行特征匹配。计算获得精标定外参,通过迭代得T2。实时判断特征匹配误差是否大于上述所述最优的阈值T2,如果是持续在线标定。多传感器有相互重叠的视场就能够在重叠的视场中实现自动在线标定,减少人工标定的繁琐过程,提高标定效率。

    一种改进的基于TOF相机三维重建的补空洞方法

    公开(公告)号:CN112991504B

    公开(公告)日:2023-01-10

    申请号:CN202110383146.9

    申请日:2021-04-09

    Applicant: 同济大学

    Abstract: 本发明公开了一种改进的基于TOF相机三维重建的补空洞方法,涉及三维成像领域,包括以下步骤:S1、首先对TOF相机进行标定,固定相机进行采集,TOF相机提供红外数据和深度数据,得到含有噪声的初始深度图;S2、利用最小化二次能量函数对得到的初始深度图进行滤波、去噪、补空洞处理,从深度数据和红外数据之间的强相关性出发,定义滤波项和重建项的组合为能量函数,并将其最小化来恢复深度数据;S3、将处理后的深度图转换为点云图;S4、对得到的点云图进行去噪、补空洞处理。本发明的一种改进的基于TOF相机三维重建的补空洞方法,可以提高深度图和点云图的质量,改善三维重建物体的效果。

    一种智能汽车多传感器时空融合的自动在线标定方法

    公开(公告)号:CN115144828A

    公开(公告)日:2022-10-04

    申请号:CN202210785604.6

    申请日:2022-07-05

    Applicant: 同济大学

    Abstract: 本发明涉及传感器融合技术领域,具体涉及一种智能汽车多传感器时空融合的自动在线标定方法,包括:同步触发多组传感器进行采集获得与传感器对应的多组采集数据。通过帧间关联的方式获得目标A的轨迹Li。将目标A的轨迹Li进行同一目标关联。对目标A的轨迹Li进行匹配并获得粗标定外参。对多组采集数据投影后,进行特征提取获得对应的边缘特征。将各种边缘特征进行原始时间戳的对准并进行特征匹配。计算获得精标定外参,通过迭代得T2。实时判断特征匹配误差是否大于上述所述最优的阈值T2,如果是持续在线标定。多传感器有相互重叠的视场就能够在重叠的视场中实现自动在线标定,减少人工标定的繁琐过程,提高标定效率。

    一种多源异构感知信息多层级融合表征与目标识别方法

    公开(公告)号:CN115100618A

    公开(公告)日:2022-09-23

    申请号:CN202210732739.6

    申请日:2022-06-27

    Applicant: 同济大学

    Abstract: 本发明公开了一种多源异构感知信息多层级融合表征与目标识别方法,涉及感知信息处理技术领域,该方法包括以下步骤:在数据级将相机、毫米波雷达和激光雷达的感知数据融合后进行多粒度分解,进行相机图像、毫米波雷达稀疏点云数据和激光雷达点云数据表征;在特征级分别对相机、毫米波雷达和激光雷达的输出数据进行特征提取;将相机、毫米波雷达和激光雷达提取后的数据特征在不同深度上进行动态连续融合,效果是通过相机、毫米波雷达和激光雷达进行感知目标观测数据的收集,进行多层级融合,解决传感器在异常情况(遮挡、小目标和数据异常等)下目标检测的精度和鲁棒性,从而提高自动驾驶的安全性。

    一种毫米波雷达与视觉融合透雾目标识别算法处理方法

    公开(公告)号:CN113189581A

    公开(公告)日:2021-07-30

    申请号:CN202110384066.5

    申请日:2021-04-09

    Applicant: 同济大学

    Abstract: 本发明公开了一种毫米波雷达与视觉融合透雾目标识别算法处理方法,属于汽车自动化控制技术领域,其算法包括雷达识别层、视觉识别层和信息融合决策层,它们在执行算法处理时,包括权利要求一所述全部步骤;本发明,通过将雨雾天气下能见度低的图片进行图像去雾预处理,并根据毫米波雷达的关键特征信息进行有效目标筛选,其后在运用联合标定方法原理下,使用时间配准与坐标变换实现毫米波雷达与相机的时空信息融合,以获取相应的ROI区域,并通过改进YOLO网络对ROI区域的目标进行结果识别,以提高结果识别的置信度,最终在加权信息决策的算法辅助下,目标识别的准确率和可靠性大大提高。

    一种采用双目原理的双TOF相机深度信息获取方法

    公开(公告)号:CN113052886A

    公开(公告)日:2021-06-29

    申请号:CN202110381308.5

    申请日:2021-04-09

    Applicant: 同济大学

    Abstract: 本发明提供的一种采用双目原理的双TOF相机深度信息获取方法,涉及图像处理技术,通过对左TOF深度图和右TOF深度图进行处理,获取TOF深度图,对TOF深度图进行降噪处理,获取初始深度图,并根据左TOF光强灰度图和右TOF光强灰度图获取视差图像;基于TOF深度图获取TOF深度图可信度权重函数,基于视差图像获取立体匹配深度图,并获取立体匹配深度图的可信度权重函数;基于TOF深度图可信度权重函数和立体匹配深度图可信度权重函数对TOF深度图和立体匹配深度图进行像素级融合处理,获取目标深度图像的技术方案,无需联合标定,简化流程,成本较低,且使得TOF深度相机与双目立体匹配测得的深度能够实现优势互补,从而获得更加精确的深度信息。

Patent Agency Ranking