-
公开(公告)号:CN115034324B
公开(公告)日:2023-05-02
申请号:CN202210701765.2
申请日:2022-06-21
Applicant: 同济大学
Abstract: 本发明公开了一种多传感器融合感知效能增强方法,涉及多传感器融合技术领域,该方法包括以下步骤:通过感知数据信噪比、目标点航迹质量、传感器探测范围和像素数值特性四个维度对当前环境传感器的感知效能进行评估,得到相机、激光雷达和毫米波雷达在当前环境下对不同距离的各目标感知可信权重,构建基于动态事件触发的感知效能模型;采用分布式融合结构对传感器数据进行目标融合;效果是通过协同毫米波雷达、相机和激光雷达进行目标鲁棒感知,可以解决不确定的光照和天气导致毫米波雷达、相机和激光雷达性能降低甚至失效问题,进而避免自动驾驶决策和执行出现问题而引发车辆危害的行为。
-
公开(公告)号:CN114415173A
公开(公告)日:2022-04-29
申请号:CN202210047699.1
申请日:2022-01-17
Applicant: 同济大学
Abstract: 本发明公开了一种高鲁棒性雷视融合的透雾目标识别方法,属于车辆识别技术领域,基于ROS将毫米波雷达获取的探测数据与相机获取的视觉信息进行融合和改进,发挥毫米波雷达不易受雾霾天气影响的优势,为图像去雾算法提供信息补充,结合驾驶场景特征信息,对暗通道先验去雾算法进行优化,针对图像去雾效率低的问题,以图像平均透射率作为评价指标确定去雾阈值,利用三帧差分法进行大气光值优化;针对雾天视觉漏检问题,结合毫米波雷达横向距离信息获取有雾图像中的感兴趣区域,利用毫米波雷达获得的目标距离信息,重新计算透射率,有效避免了视觉漏检,提高了车辆识别的准确性与鲁棒性。
-
公开(公告)号:CN113011380A
公开(公告)日:2021-06-22
申请号:CN202110383016.5
申请日:2021-04-09
Applicant: 同济大学
IPC: G06K9/00 , G06K9/62 , G01S13/931 , G01S13/86
Abstract: 本发明公开了一种毫米波雷达视觉前置融合装置及目标识别方法,属于汽车自动化控制技术领域,其中,毫米波雷达视觉前置融合装置,包括视觉数据采集模块、雷达数据采集模块、数据融合电路模块和算法模块;所述视觉数据采集模块,用于采集自车行驶区域前方物体的视觉数据;所述雷达数据采集模块,用于采集自车行驶区域前方物体的雷达数据;所述数据融合电路模块,用于将采集到的视觉数据和雷达数据进行融合处理;本发明,能够将视觉数据采集模块采集的图像数据和雷达数据采集模块采集的雷达数据进行中间特征层的融合处理,最终达到自车前方区域3D目标的精确检测,为自车的行驶过程中的安全避障提供了保障。
-
公开(公告)号:CN112882949A
公开(公告)日:2021-06-01
申请号:CN202110279040.4
申请日:2021-03-16
Applicant: 同济大学 , 深圳市未来智能网联交通系统产业创新中心
Abstract: 本发明公开了一种交通环境融合感知在环VTHIL的车联网仿真测试平台与方法,属于交通环境融合感知仿真测试技术领域,所述测试方法包括:S1:测试车辆选择通信链路测试因子,以及与测试场景相适合的应用场景测试因子进行仿真测试;S2:对测试场景中测试环境的各个模拟控制系统进行量化控制;S3:对测试场景中的相关测试数据进行采集,并进行记录存储;S4:对测试的数据结果进行分析并评估,以分析得到仿真测试的各项参数,本发明,通过对测试车辆进行车联网仿真测试,可以在高效性、高可控性和高可重复性的优势下,能够满足测试车辆在各个高危险场景测试、容错性测试等复杂高风险测试工况下的需求,进而为智能网联汽车研发验证提供了全新的测试手段。
-
公开(公告)号:CN118364617A
公开(公告)日:2024-07-19
申请号:CN202410427820.2
申请日:2024-04-10
Applicant: 同济大学
IPC: G06F30/20 , G01M17/007
Abstract: 本发明提出了一种面向自动驾驶测试的动态场景仿真与场地测试的闭环方法,包括以下步骤:步骤1、建立面向仿真测试的动态场景并进行仿真测试;步骤2、建立面向场地测试的动态场景并进行场地测试;步骤3、将仿真测试动态场景转化为场地测试动态场景,之后进行场地测试;步骤4、将场地测试动态场景转化为仿真测试动态场景,之后进行仿真测试。本发明结合虚拟仿真和封闭场地测试,生成包含动态交通参与者的动态场景,并实现仿真与场地测试的动态场景之间的互相转化。
-
公开(公告)号:CN115100618B
公开(公告)日:2024-04-12
申请号:CN202210732739.6
申请日:2022-06-27
Applicant: 同济大学
IPC: G06V20/56 , G06V10/75 , G06V10/764 , G06V10/80
Abstract: 本发明公开了一种多源异构感知信息多层级融合表征与目标识别方法,涉及感知信息处理技术领域,该方法包括以下步骤:在数据级将相机、毫米波雷达和激光雷达的感知数据融合后进行多粒度分解,进行相机图像、毫米波雷达稀疏点云数据和激光雷达点云数据表征;在特征级分别对相机、毫米波雷达和激光雷达的输出数据进行特征提取;将相机、毫米波雷达和激光雷达提取后的数据特征在不同深度上进行动态连续融合,效果是通过相机、毫米波雷达和激光雷达进行感知目标观测数据的收集,进行多层级融合,解决传感器在异常情况(遮挡、小目标和数据异常等)下目标检测的精度和鲁棒性,从而提高自动驾驶的安全性。
-
公开(公告)号:CN113049267A
公开(公告)日:2021-06-29
申请号:CN202110278921.4
申请日:2021-03-16
Applicant: 同济大学 , 深圳市未来智能网联交通系统产业创新中心
IPC: G01M17/007 , G06F30/20
Abstract: 本发明公开了一种交通环境融合感知在环VTHIL传感器物理建模方法,属于交通环境融合感知建模技术领域,包括安装在自车上的各种传感器和仿真器,所述仿真器内置有仿真云平台,且仿真云平台包括道路模拟系统、环境模拟系统、目标物控制系统、临时变更采集控制、自动控制采集系统以及数字信号模拟系统;本发明,通过将真实的交通驾驶环境在实验室内进行重构,以建立局部的交通流,同时对主要的环境物理因素进行模拟,建立亮度连续可调、色温变化的灯光系统,建立雨雾模拟系统,实现环境能见度,进而通过将以上融合到一起形成环境融合感知系统,有通用性好、仿真精度优化、能够达到较好的仿真效果。
-
公开(公告)号:CN112991504A
公开(公告)日:2021-06-18
申请号:CN202110383146.9
申请日:2021-04-09
Applicant: 同济大学
Abstract: 本发明公开了一种改进的基于TOF相机三维重建的补空洞方法,涉及三维成像领域,包括以下步骤:S1、首先对TOF相机进行标定,固定相机进行采集,TOF相机提供红外数据和深度数据,得到含有噪声的初始深度图;S2、利用最小化二次能量函数对得到的初始深度图进行滤波、去噪、补空洞处理,从深度数据和红外数据之间的强相关性出发,定义滤波项和重建项的组合为能量函数,并将其最小化来恢复深度数据;S3、将处理后的深度图转换为点云图;S4、对得到的点云图进行去噪、补空洞处理。本发明的一种改进的基于TOF相机三维重建的补空洞方法,可以提高深度图和点云图的质量,改善三维重建物体的效果。
-
公开(公告)号:CN215764047U
公开(公告)日:2022-02-08
申请号:CN202120731946.0
申请日:2021-04-09
Applicant: 同济大学
Abstract: 本实用新型公开了一种毫米波雷达视觉前置融合装置,涉及雷达视觉融合技术领域,目的在于提供一种毫米波雷达视觉前置融合装置,包括安装箱,所述安装箱的一侧面上设有雷达,所述安装箱的相对一侧面上设有转动轴,所述转动轴与所述安装箱转动连接,所述转动轴远离所述安装箱的一端设有减速电机,所述减速电机的输出轴插入所述安装箱内并与安装箱转动连接,所述转动轴上可拆卸式连接有支撑机构,所述支撑机构上设有视觉系统,通过设置的支撑机构,第二限位板可以方便与连接杆进行拆卸,同时雷达和视觉系统均安装在安装箱的两端,降低装置安装的复杂度和难度。
-
-
-
-
-
-
-
-