一种面向地库泊车的鲁棒视觉特征匹配和检测方法

    公开(公告)号:CN114782913B

    公开(公告)日:2024-11-12

    申请号:CN202210303258.3

    申请日:2022-03-24

    Applicant: 同济大学

    Abstract: 本发明涉及一种面向地库泊车的鲁棒视觉特征匹配和检测方法,包括:采集原始RGB图像对特征点检测深度学习模型进行离线训练,得到训练好的特征点检测模型;将待测的数据输入特征点检测深度学习模型,进行特征点检测,得到对应的特征点检测结果;将待测RGB图像与真值标签输入库位检测深度学习模型进行离线训练,得到训练好的库位检测模型;将待测RGB图像输入库位检测深度学习模型,进行库位检测,得到对应的库位检测结果;将特征点检测结果与库位检测结果进行匹配,得到匹配结果。与现有技术相比,本发明能够在光照昏暗或纹理不明显的情况下检测特征点,从而实现精度较高的定位及建图,进而协助车辆完成自动泊车。

    一种基于路径信息预测的铰接车辆辅助驾驶方法和系统

    公开(公告)号:CN118722611A

    公开(公告)日:2024-10-01

    申请号:CN202410825185.3

    申请日:2024-06-25

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于路径信息预测的铰接车辆辅助驾驶方法和系统,包括以下步骤:S1、通过安装在铰接车辆各车节上的多个RGB相机,实时采集当前车辆周围的图像,采用基于高斯建模的同步定位与地图构建算法对相机进行位姿估计;S2、将各车节的相机位姿估计结果输入路径预测网络,预测当前车辆各车节的路径信息,路径预测网络基于混合长短期记忆网络构建;S3、将当前车辆各车节的路径信息与其附近车辆和行人的位置进行比对,采用基于检测圆的车联网碰撞预警算法,判断是否存在与当前车辆的路径重叠的车辆或行人;S4、根据当前车辆和与其路径重叠的车辆或行人的检测圆的中心距离,进行分级制动。与现有技术相比,本发明可以提高铰接车辆驾驶安全性。

    一种基于单目图像的语义拓扑联合建图方法

    公开(公告)号:CN114116933B

    公开(公告)日:2024-09-24

    申请号:CN202111340486.X

    申请日:2021-11-12

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于单目图像的语义拓扑联合建图方法,包括:车辆同步采集相机RGB图像数据、GPS和IMU定位数据等;将采集图像输入至语义分割网络,得到图像路面类型标识的语义分割图;将各图像中被提取的路面标识像素点投影至地图全局坐标下,并将其融入地图数据管理系统;将地图数据管理系统生成的全局语义地图分解成多个ROI,通过本发明设计的网络结构在语义地图上进行车道拓扑状态的最优解搜索,最后将所有建立拓扑状态的ROI结合成完整的拓扑地图。与现有技术相比,本发明以车载视觉和定位系统为传感器配置方案,可以构建出相对精度达99%的语义地图,并且设计了支持低成本传感器的众包融合策略,能够可靠保证拓扑地图的位置精度和拓扑关系正确率。

    一种基于不确定性估计的车辆轨迹预测方法

    公开(公告)号:CN114005280B

    公开(公告)日:2023-03-28

    申请号:CN202111360841.X

    申请日:2021-11-17

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于不确定性估计的车辆轨迹预测方法,包括:实时采集周围车辆的位姿信息和局部语义地图信息,并得到车辆历史位姿信息;根据采集的车辆位置信息,结合高精地图、车道连通关系以及交通规则,确定出未来轨迹终点的所有候选车道;根据车辆位姿和局部语义地图评估车辆历史位姿的不确定性;将车辆历史位姿转换至各车道坐标系下,结合车道走向等信息进行特征编码,预测车辆行驶终点在各候选车道上的概率;根据特征编码预测目标车辆的未来行驶路线的概率分布。与现有技术相比,本发明解决了现有技术中忽视输入车辆历史位姿不确定性和轨迹多模态建模不完整的问题,能够为自动驾驶的下游决策规划提供准确可靠的信息来源、降低风险。

    一种室外乡村道路场景的组合定位方法

    公开(公告)号:CN113156479B

    公开(公告)日:2023-03-28

    申请号:CN202110307331.X

    申请日:2021-03-23

    Applicant: 同济大学

    Abstract: 本发明涉及一种室外乡村道路场景的组合定位方法,根据室外乡村道路场景的特殊性,首先基于道路场景情况,在树林、天桥和隧道等卫星信号较弱区域布置合适数量的超宽带(UWB)定位标签;其次利用高精定位设备对UWB定位标签进行位置标定;最后在车端搭建由全球导航卫星系统(GNSS)和UWB定位标签形成的组合定位系统,该组合定位系统包含组合定位控制器的微控制单元(MCU),并在MCU中融合GNSS和UWB的定位信息,输出自车的最终位置信息。与现有技术相比,本发明具有成本较低、定位精确高和定位数据稳定可靠等优点。

    一种基于密集关联的单目3D车辆检测方法

    公开(公告)号:CN114119749A

    公开(公告)日:2022-03-01

    申请号:CN202111405543.8

    申请日:2021-11-24

    Applicant: 同济大学

    Abstract: 本发明提供一种基于密集关联的单目3D车辆检测方法,包括以下步骤:通过车载相机采集单张的前视图像;计算前视图像中的各像素点在相机坐标系下的2D坐标;映射并计算前视图像中的各像素点在目标局部坐标系下的3D坐标;通过自下而上的实例分割方法划分前视图像中的各目标车辆在前视图像上所占的2D空间区域,并根据2D空间区域选取各目标车辆的像素点及其对应的2D坐标和3D坐标,并构建密集2D‑3D关联;由密集2D‑3D关联构建PnP问题并求解,获取目标车辆的位置和角度;由网络分支预测车辆的长、宽、高尺寸,并结合获取的目标车辆的位置和角度,获取目标车辆的3D检测框。与现有技术相比,该方法能够精确地对交通场景的车辆进行识别和定位。

    一种基于单目图像的语义拓扑联合建图方法

    公开(公告)号:CN114116933A

    公开(公告)日:2022-03-01

    申请号:CN202111340486.X

    申请日:2021-11-12

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于单目图像的语义拓扑联合建图方法,包括:车辆同步采集相机RGB图像数据、GPS和IMU定位数据等;将采集图像输入至语义分割网络,得到图像路面类型标识的语义分割图;将各图像中被提取的路面标识像素点投影至地图全局坐标下,并将其融入地图数据管理系统;将地图数据管理系统生成的全局语义地图分解成多个ROI,通过本发明设计的网络结构在语义地图上进行车道拓扑状态的最优解搜索,最后将所有建立拓扑状态的ROI结合成完整的拓扑地图。与现有技术相比,本发明以车载视觉和定位系统为传感器配置方案,可以构建出相对精度达99%的语义地图,并且设计了支持低成本传感器的众包融合策略,能够可靠保证拓扑地图的位置精度和拓扑关系正确率。

    一种基于停车位角点检测的自动泊车方法及系统

    公开(公告)号:CN113830078A

    公开(公告)日:2021-12-24

    申请号:CN202111214905.5

    申请日:2021-10-19

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于停车位角点检测的自动泊车方法及系统,方法包括以下步骤:1)将停车位鸟瞰图输入特征检测器,获得角点、入口线以及边线的热力图;2)对角点热力图进行过滤,获得角点列表;3)对角点列表中的角点两两组合,计算每个角点组合中两个角点之间的距离,构成距离表;4)剔除距离表中不满足国标停车位尺寸要求的角点组合;5)剔除距离表中不满足椭圆限制条件的角点组合;6)根据入口线以及边线的热力图获取入口线和边线的朝向,剔除距离表中不满足与入口线以及边线的相对位置关系的角点组合;7)根据距离表中的角点组合确定停车位区域,根据停车位位置完成自动泊车。与现有技术相比,本发明具有计算复杂度低、部署难度低等优点。

    一种基于多表征集成学习的车道线检测方法

    公开(公告)号:CN116311137A

    公开(公告)日:2023-06-23

    申请号:CN202310334935.2

    申请日:2023-03-30

    Applicant: 同济大学

    Inventor: 韩毅 田炜 余先旺

    Abstract: 本发明涉及一种基于多表征集成学习的车道线检测方法,包括:构建车道线检测网络,并利用车辆前视图像数据集对车道线检测网络进行训练,得到车道线检测模型,其中,车道线检测网络架构包括依次连接的骨干网络和特征金字塔网络,特征金字塔网络分别连接有分割分支和曲线拟合分支,分割分支和曲线拟合分支之间连接有自适应混合模块;将实际车辆前视图像输入车道线检测模型,输出得到对应的分割车道线检测结果和曲线拟合车道线检测结果。与现有技术相比,本发明将车道线检测任务同时表征为分割任务和曲线拟合任务,设计了双分支的网络结构,结合车道线分割表征和曲线表征的优势,能够有效提升车道线检测的准确性。

    一种跨光谱图像的特征点匹配方法

    公开(公告)号:CN116051872A

    公开(公告)日:2023-05-02

    申请号:CN202310061807.5

    申请日:2023-01-19

    Applicant: 同济大学

    Inventor: 田炜 叶罗鑫

    Abstract: 本发明涉及一种跨光谱图像的特征点匹配方法,包括:将经过标定对齐的跨光谱图像对输入到对抗生成网络模型中进行训练,得到模态转换模型;将单模态的非可见光图像输入由卷积神经网络与图神经网络组成的关键点提取与匹配模型中进行训练,得到匹配模型;将待匹配图像对输入模态转换模型与匹配模型,从待匹配图像对中提取出关键点及特征描述子、并进行匹配,获得图像间关键点的匹配关系;再利用随机抽样一致算法剔除离群值,得到置信度大于预设阈值的图像间匹配关系。与现有技术相比,本发明能够对模态差异较大的跨光谱图像进行可靠的特征点提取和匹配处理,从而获得丰富而稳定的场景信息、提高无人驾驶车辆在低光照场景下的感知能力。

Patent Agency Ranking