一种基于场景先验的视觉车道线检测系统及方法

    公开(公告)号:CN115439817A

    公开(公告)日:2022-12-06

    申请号:CN202211016393.6

    申请日:2022-08-24

    Abstract: 本发明公开了一种基于场景先验的视觉车道线检测系统及方法,包括:数据处理模块、视觉主干网络模块、先验知识对齐模块、融合网络模块、检测网络模块;所述数据处理模块的输入为待检测的图像数据、场景先验数据、定位数据,输出为归一化之后的图像、用栅格图维护的局部场景先验信息;所述视觉主干网络模块的输入为归一化之后的图像,输出为图像特征;所述先验知识对齐模块,输入为用栅格图维护的局部场景先验信息,输出为对齐后的局部场景先验信息;所述融合网络模块,输入为图像特征和对齐后的局部场景先验信息,输出为融合后的图像特征和局部场景先验信息;所述检测网络模块,输入为融合后的图像特征,输出为用掩码表示的车道线检测结果。

    一种基于序列预测的车道线检测系统、装置和方法

    公开(公告)号:CN114677442B

    公开(公告)日:2022-10-28

    申请号:CN202210583847.1

    申请日:2022-05-26

    Abstract: 本发明公开了一种基于序列预测的车道线检测系统、装置和方法,所述方法对待检测的图像数据进行归一化操作得到归一化后的图像,并查找相应的预测关键点序列;提取归一化后的图像的特征向量,对该特征向量进行降维得到降维特征,将该降维特征按高宽维度展开,得到图像序列特征;基于降维特征的维度计算图像位置编码,将图像序列特征和图像位置编码相加,再共同进行编码得到编码记忆;对预测关键点序列进行特征提取得到解码序列特征;对编码记忆、预测关键点序列的位置编码与解码序列特征进行解码,得到待预测关键点的隐状态向量;将待预测关键点的隐状态向量转化为关键点的坐标。本发明提高了车道线的密集关键点的预测准确率,并实现快速预测。

    一种基于序列预测的车道线检测系统、装置和方法

    公开(公告)号:CN114677442A

    公开(公告)日:2022-06-28

    申请号:CN202210583847.1

    申请日:2022-05-26

    Abstract: 本发明公开了一种基于序列预测的车道线检测系统、装置和方法,所述方法对待检测的图像数据进行归一化操作得到归一化后的图像,并查找相应的预测关键点序列;提取归一化后的图像的特征向量,对该特征向量进行降维得到降维特征,将该降维特征按高宽维度展开,得到图像序列特征;基于降维特征的维度计算图像位置编码,将图像序列特征和图像位置编码相加,再共同进行编码得到编码记忆;对预测关键点序列进行特征提取得到解码序列特征;对编码记忆、预测关键点序列的位置编码与解码序列特征进行解码,得到待预测关键点的隐状态向量;将待预测关键点的隐状态向量转化为关键点的坐标。本发明提高了车道线的密集关键点的预测准确率,并实现快速预测。

    一种静态目标分割方法和系统

    公开(公告)号:CN114332496A

    公开(公告)日:2022-04-12

    申请号:CN202210260910.8

    申请日:2022-03-17

    Abstract: 本发明公开一种静态目标分割方法和系统,该方法包括:步骤一,获取当前帧图像和参考帧图像,输入纹理提取网络模块,得到对应图像的纹理特征;步骤二,利用注意力计算模块,对当前帧和参考帧的纹理特征进行切块后计算每块的相似度,并基于相似度的计算,得到软硬注意力;步骤三,将当前帧图像和参考帧图像输入编码网络模块,得到对应编码特征,利用参考帧编码特征和硬注意力,通过注意力特征生成模块得到注意力特征,再根据注意力特征和当前帧编码特征得到最终的注意力特征;步骤四,构造解码网络模块,基于当前帧编码特征和最终的注意力特征得到当前帧图像的最终静态目标分割结果。本发明在保证分割精度的同时提高了整体逻辑处理的速度。

    一种场景边界检测方法和移动平台

    公开(公告)号:CN117058358A

    公开(公告)日:2023-11-14

    申请号:CN202311316718.7

    申请日:2023-10-12

    Abstract: 本申请涉及一种场景边界检测方法和移动平台。该方法包括:获取移动平台的连续帧的三维数据点,并获取每帧三维数据点对应的目标边界点;将目标边界点基于三维数据点中携带的拓扑结构进行排列,得到连续帧的初始边界拓扑信息,并遍历每帧中的所有目标边界点,基于目标边界点所处的环境信息对初始边界拓扑信息进行更新处理,得到目标边界拓扑信息;基于目标边界拓扑信息,生成针对移动平台的场景边界检测结果。采用本方法能够提升场景边界检测的效率。

    一种点云匹配方法、装置、电子装置和存储介质

    公开(公告)号:CN116664645B

    公开(公告)日:2023-10-20

    申请号:CN202310940230.5

    申请日:2023-07-28

    Abstract: 本申请涉及一种点云匹配方法、装置、电子装置和存储介质,其中,该点云匹配方法包括:将待匹配点云划分为多个点云块,输入多个点云块至预训练后的点云特征编码模块,得到多个点云块的特征向量;根据多个点云块的特征向量获取待匹配点云的全局描述向量,将待匹配点云的全局描述向量与预设的历史数据库中的点云帧的全局描述向量进行匹配,确定在预设的匹配阈值范围内的历史数据库中的点云帧为点云匹配结果。通过本申请,解决了基于有监督深度学习的点云匹配技术的匹配准确度低的问题。

    一种基于多假设跟踪的全局初定位方法和装置

    公开(公告)号:CN114413882B

    公开(公告)日:2022-08-05

    申请号:CN202210317515.9

    申请日:2022-03-29

    Abstract: 本发明属于全局初定位技术领域,涉及一种基于多假设跟踪的全局初定位方法和装置,该方法首先采集场景的点云数据和其对应的全局位姿数据,构建数据库,将采集的数据经过预处理存入数据库,同时生成点云地图,然后对当前帧点云数据与数据库中的数据进行匹配,得到匹配的候选结果,接着利用连续帧之间的约束关系对候选结果进行过滤,直到候选结果收敛后,利用当前帧数据和其对应的数据库中的数据进行平移和旋转的计算,从而得到全局初定位的初始值后与点云地图匹配得到精确的初定位结果。本发明的方法结合全局描述以及多帧数据进行场景初定位,采用多假设跟踪的方法对结果进行筛选,保证了定位的效率,同时提高了定位的鲁棒性。

    一种基于离线全局优化的多点云地图融合方法和装置

    公开(公告)号:CN114322994A

    公开(公告)日:2022-04-12

    申请号:CN202210228899.7

    申请日:2022-03-10

    Abstract: 本发明公开了一种基于离线全局优化的多点云地图融合方法和装置,该方法包括:步骤1,适配基于GPS信息初始化的激光SLAM方法;步骤2,将需要用于点云融合的多个数据集,按照上述S1所述的在线激光SLAM方法依次获得多个点云地图;步骤3,离线加载各点云地图信息,并依次构建各点云地图的里程计因子,回环因子和GPS因子;步骤4,构建不同点云地图之间的互约束因子;步骤5,设定优化参数,进行全局优化,保存最终融合点云和所有关键帧信息。本发明方法相较于在线多点云地图融合的方法,提高了多点云地图融合的稳定性和可靠性,降低了算法实施的难度,无需顾及建图性能和运行实时性之间的平衡关系。

    基于深度学习的弱监督激光可行驶区域预测方法和系统

    公开(公告)号:CN116863432B

    公开(公告)日:2023-12-22

    申请号:CN202311126363.5

    申请日:2023-09-04

    Abstract: 本发明公开了一种基于深度学习的弱监督激光可行驶区域预测方法和系统,本发明利用激光可行驶区域预测算法较为容易的获得下采样点云是否地面点的粗略标注,将该粗略标注作为标签,从而较为容易的获得了用于训练深度学习点云特征提取模型的标签,但由于该标签的准确性有待提高,因此,在第一次对深度学习点云特征提取模型进行训练之后,基于当前预测得到的初始地面点预测概率和上一次预测得到的初始地面点预测概率通过交叉熵损失函数构建新增损失函数以完成之后的训练,因此能够利用大量的数据量较小的标注标签训练获得能够较为准确预测地面点概率的地面点预测模型,从而能够(56)对比文件Wan, J等.DGANet: A Dilated GraphAttention-Based Network for Local FeatureExtraction on 3D Point Clouds《.REMOTESENSING》.2021,第13卷(第17期),3484.Siyun Chen等.A Dense Feature PyramidNetwork-Based Deep Learning Model forRoad Marking Instance Segmentation UsingMLS Point Clouds《. IEEE Transactions onGeoscience and Remote Sensing 》.2021,第59卷(第1期),784 - 800.

    场景识别方法、装置和电子装置

    公开(公告)号:CN117011685A

    公开(公告)日:2023-11-07

    申请号:CN202311256742.6

    申请日:2023-09-27

    Abstract: 本申请涉及一种场景识别方法、装置和电子装置,其中,该场景识别方法包括:获取连续的激光扫描帧;根据每帧该激光扫描帧,获取融合该连续的激光扫描帧的局部栅格地图,并基于该局部栅格地图得到各帧下的障碍物区域信息;将该各帧下的障碍物区域信息输入至训练完备的目标场景识别模型,得到每帧该激光扫描帧对应的全局描述信息;根据该全局描述信息生成该连续的激光扫描帧下的场景识别结果。通过本申请,解决了场景识别的准确性和效率无法兼顾的问题,实现了精确、高效的场景识别方法。

Patent Agency Ranking