一种室外乡村道路场景的组合定位方法

    公开(公告)号:CN113156479A

    公开(公告)日:2021-07-23

    申请号:CN202110307331.X

    申请日:2021-03-23

    Applicant: 同济大学

    Abstract: 本发明涉及一种室外乡村道路场景的组合定位方法,根据室外乡村道路场景的特殊性,首先基于道路场景情况,在树林、天桥和隧道等卫星信号较弱区域布置合适数量的超宽带(UWB)定位标签;其次利用高精定位设备对UWB定位标签进行位置标定;最后在车端搭建由全球导航卫星系统(GNSS)和UWB定位标签形成的组合定位系统,该组合定位系统包含组合定位控制器的微控制单元(MCU),并在MCU中融合GNSS和UWB的定位信息,输出自车的最终位置信息。与现有技术相比,本发明具有成本较低、定位精确高和定位数据稳定可靠等优点。

    一种基于多传感器融合的无锚框3D目标检测方法

    公开(公告)号:CN114118247B

    公开(公告)日:2025-05-02

    申请号:CN202111384455.4

    申请日:2021-11-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多传感器融合的无锚框3D目标检测方法,包括:获取彩色RGB图像和激光点云;对彩色RGB图像进行语义分割,得到各像素的类别信息;利用类别信息对激光点云的特征进行增强,得到增强激光点云;对增强激光点云分别进行点云几何特征编码、点云可见性特征编码,得到几何特征和可见性特征;将几何特征与可见性特征进行堆叠,得到堆叠特征;将堆叠特征输入多层特征提取网络,提取不同层级的特征信息,再将各层级的特征信息进行堆叠,得到融合特征;将融合特征输出给无锚框目标检测器,以得到3D目标检测结果。与现有技术相比,本发明通过多模态数据的融合,利用传感器之间的优势互补来增强3D目标检测性能,从而实现准确快速检测的目的。

    一种基于停车位角点检测的自动泊车方法及系统

    公开(公告)号:CN113830078B

    公开(公告)日:2023-08-04

    申请号:CN202111214905.5

    申请日:2021-10-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于停车位角点检测的自动泊车方法及系统,方法包括以下步骤:1)将停车位鸟瞰图输入特征检测器,获得角点、入口线以及边线的热力图;2)对角点热力图进行过滤,获得角点列表;3)对角点列表中的角点两两组合,计算每个角点组合中两个角点之间的距离,构成距离表;4)剔除距离表中不满足国标停车位尺寸要求的角点组合;5)剔除距离表中不满足椭圆限制条件的角点组合;6)根据入口线以及边线的热力图获取入口线和边线的朝向,剔除距离表中不满足与入口线以及边线的相对位置关系的角点组合;7)根据距离表中的角点组合确定停车位区域,根据停车位位置完成自动泊车。与现有技术相比,本发明具有计算复杂度低、部署难度低等优点。

    一种基于半监督模型的车辆多模态轨迹预测方法

    公开(公告)号:CN116331259A

    公开(公告)日:2023-06-27

    申请号:CN202310267999.5

    申请日:2023-03-16

    Applicant: 同济大学

    Inventor: 田炜 王松涛

    Abstract: 本发明涉及一种基于半监督模型的车辆多模态轨迹预测方法,包括:基于道路地图信息获取车辆的未来可能意图和可能行驶的道路及中心线,并对目标车辆周围的道路地图信息以及目标车辆周围的其他车辆历史轨迹进行编码,随后使用半监督模型,为未来可能的目标车辆轨迹模态生成伪标签,并使用伪标签对不同模态下的预测轨迹进行监督学习,实现车辆轨迹的多模态预测。与现有技术相比,本发明将多模态问题转化为半监督问题,并使用mean‑teacher半监督模型对模型进行训练,能够有效得提升车辆轨迹的预测精度,并能解决车辆轨迹预测中存在的数据不平衡问题,能够有效改善车辆预测结果中的模态分布、显著提升轨迹预测质量。

    一种基于道路场景的车道线和车道区域检测方法

    公开(公告)号:CN116152766A

    公开(公告)日:2023-05-23

    申请号:CN202310137313.0

    申请日:2023-02-20

    Applicant: 同济大学

    Inventor: 田炜 余先旺

    Abstract: 本发明涉及一种基于道路场景的车道线和车道区域检测方法,将车辆前视RGB图像处理为的高分辨率图像和低分辨率图像,将高分辨率图像和低分辨率图像均输入预先构建并训练好的检测网络中,得到车道线和车道的检测结果。检测网络包括:车道线初级特征提取模块:提取车道线的初级特征;车道初级特征提取模块:提取车道的初级特征;特征交互学习模块:将两个初级特征进行信息交互,生成交互特征;车道线解码器和车道解码器:分别对交互特征进行第一次解码,第一次解码后的特征输入对方解码器中,结合交互特征进行第二次解码;交互约束损失模块:将两个解码器第二次解码的解码特征进行约束。与现有技术相比,本发明能够同时精准检测车道线和车道。

    一种基于注意力和采样学习的点云目标检测方法

    公开(公告)号:CN114120270A

    公开(公告)日:2022-03-01

    申请号:CN202111314134.7

    申请日:2021-11-08

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于注意力和采样学习的点云目标检测方法,包括以下步骤:1)采集待检测目标的点云数据;2)根据点云数据,通过点云提取网络提取点云特征;3)根据点云特征,通过k最近值下采样法筛选出目标索引点特征;4)根据目标索引点特征,通过自适应点云特征聚合网络,将点云特征聚合为候选目标特征;5)根据候选目标特征,通过多层感知机生成待检测目标的类别、位置和尺寸信息。与现有技术相比,本发明具有可靠性强、准确率高等优点。

    一种基于多任务融合的三维目标检测系统及其方法

    公开(公告)号:CN114118254A

    公开(公告)日:2022-03-01

    申请号:CN202111391868.5

    申请日:2021-11-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多任务融合的三维目标检测系统及其方法,该检测系统包括RGB相机、激光雷达和融合算法感知模块,该检测方法包括:通过RGB相机采集车辆前方交通场景图像,通过激光雷达采集车辆周围三维点云数据;车辆前方交通场景图像传输给图像处理单元,以对车辆前方交通场景图像进行语义分割,输出对应语义信息给点云处理单元;车辆周围三维点云数据传输给点云处理单元,以对车辆周围三维点云数据添加对应语义信息,并对添加了语义信息的点云数据进行三维目标检测,输出三维目标检测结果。与现有技术相比,本发明能够在复杂的低光照环境下有效提高三维目标检测的精度。

    一种基于多任务融合的三维目标检测系统及其方法

    公开(公告)号:CN114118254B

    公开(公告)日:2025-05-02

    申请号:CN202111391868.5

    申请日:2021-11-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多任务融合的三维目标检测系统及其方法,该检测系统包括RGB相机、激光雷达和融合算法感知模块,该检测方法包括:通过RGB相机采集车辆前方交通场景图像,通过激光雷达采集车辆周围三维点云数据;车辆前方交通场景图像传输给图像处理单元,以对车辆前方交通场景图像进行语义分割,输出对应语义信息给点云处理单元;车辆周围三维点云数据传输给点云处理单元,以对车辆周围三维点云数据添加对应语义信息,并对添加了语义信息的点云数据进行三维目标检测,输出三维目标检测结果。与现有技术相比,本发明能够在复杂的低光照环境下有效提高三维目标检测的精度。

    一种融合RGB与红外信息的3D目标检测方法

    公开(公告)号:CN116385761A

    公开(公告)日:2023-07-04

    申请号:CN202310085430.7

    申请日:2023-01-31

    Applicant: 同济大学

    Inventor: 邓清 田炜

    Abstract: 本发明涉及一种融合RGB与红外信息的3D目标检测方法,包括:获取像素对齐的RGB与红外图像样本数据;构建基于深度学习的目标检测网络,利用样本数据进行训练,得到目标检测模型;将实际中同时拍摄且对齐的RGB与红外图像输入该模型,得到目标的3D位姿信息。其中,目标检测网络包括:双模态融合骨干网络(提取双模态特征并进行特征级融合)、语义特征提取模块、深度感知特征增强模块(隐式学习深度感知特征)、深度位置编码模块(生成深度位置编码)、深度感知Transformer模块(全局集成特征图)、检测头(预测物体类别、2D框及3D框)。与现有技术相比,本发明能够有效融合RGB与红外双模态的互补信息,能够提升低光照场景下的目标检测性能,确保检测结果的准确性。

    一种便携式智能驾驶多传感器测试台架

    公开(公告)号:CN116337477A

    公开(公告)日:2023-06-27

    申请号:CN202310321147.X

    申请日:2023-03-29

    Applicant: 同济大学

    Abstract: 本发明涉及一种便携式智能驾驶多传感器测试台架,包括:台架主体、前支架、右支架、左支架、后支架和锁紧装置。台架主体包括:台架中心杆、显示设备承载板、激光雷达支座、机箱、机箱盖。各支架组成部分相同,包括:支撑杆、长连杆、中连杆、短连杆、传感器支座和车轮。台架中心杆上装配有两个锁紧装置,由锁紧环与滑动铰接耳组成,各支架均通过长连杆与上锁紧装置上的铰接耳铰接,通过中连杆与下锁紧装置上的铰接耳铰接。台架有四种展开姿态,可通过调整上锁紧装置的位置变换姿态,同时各支架间的角度也可以按需进行改变。本发明可方便智能驾驶相关研究的开展,且台架处于姿态4时体积小,便于携带与存放。

Patent Agency Ranking