-
公开(公告)号:CN116863432B
公开(公告)日:2023-12-22
申请号:CN202311126363.5
申请日:2023-09-04
Applicant: 之江实验室
IPC: G06V20/56 , G06V20/70 , G06V10/40 , G06V10/774 , G06V10/84
Abstract: 本发明公开了一种基于深度学习的弱监督激光可行驶区域预测方法和系统,本发明利用激光可行驶区域预测算法较为容易的获得下采样点云是否地面点的粗略标注,将该粗略标注作为标签,从而较为容易的获得了用于训练深度学习点云特征提取模型的标签,但由于该标签的准确性有待提高,因此,在第一次对深度学习点云特征提取模型进行训练之后,基于当前预测得到的初始地面点预测概率和上一次预测得到的初始地面点预测概率通过交叉熵损失函数构建新增损失函数以完成之后的训练,因此能够利用大量的数据量较小的标注标签训练获得能够较为准确预测地面点概率的地面点预测模型,从而能够(56)对比文件Wan, J等.DGANet: A Dilated GraphAttention-Based Network for Local FeatureExtraction on 3D Point Clouds《.REMOTESENSING》.2021,第13卷(第17期),3484.Siyun Chen等.A Dense Feature PyramidNetwork-Based Deep Learning Model forRoad Marking Instance Segmentation UsingMLS Point Clouds《. IEEE Transactions onGeoscience and Remote Sensing 》.2021,第59卷(第1期),784 - 800.
-
公开(公告)号:CN117011685A
公开(公告)日:2023-11-07
申请号:CN202311256742.6
申请日:2023-09-27
Applicant: 之江实验室
Abstract: 本申请涉及一种场景识别方法、装置和电子装置,其中,该场景识别方法包括:获取连续的激光扫描帧;根据每帧该激光扫描帧,获取融合该连续的激光扫描帧的局部栅格地图,并基于该局部栅格地图得到各帧下的障碍物区域信息;将该各帧下的障碍物区域信息输入至训练完备的目标场景识别模型,得到每帧该激光扫描帧对应的全局描述信息;根据该全局描述信息生成该连续的激光扫描帧下的场景识别结果。通过本申请,解决了场景识别的准确性和效率无法兼顾的问题,实现了精确、高效的场景识别方法。
-
公开(公告)号:CN116664645A
公开(公告)日:2023-08-29
申请号:CN202310940230.5
申请日:2023-07-28
Applicant: 之江实验室
Abstract: 本申请涉及一种点云匹配方法、装置、电子装置和存储介质,其中,该点云匹配方法包括:将待匹配点云划分为多个点云块,输入多个点云块至预训练后的点云特征编码模块,得到多个点云块的特征向量;根据多个点云块的特征向量获取待匹配点云的全局描述向量,将待匹配点云的全局描述向量与预设的历史数据库中的点云帧的全局描述向量进行匹配,确定在预设的匹配阈值范围内的历史数据库中的点云帧为点云匹配结果。通过本申请,解决了基于有监督深度学习的点云匹配技术的匹配准确度低的问题。
-
公开(公告)号:CN116434183A
公开(公告)日:2023-07-14
申请号:CN202310215469.6
申请日:2023-03-08
Applicant: 之江实验室
Abstract: 本发明公开一种基于多点云协同融合的道路静态环境描述方法,包括:使用多个多线激光传感器,采集道路环境点云信息;对多个点云信息进行时间同步和空间对齐;利用多点云协同进行地面分割,提取出障碍物点云;融合多点云光线跟踪模型的结果,更新局部概率栅格地图;将局部概率栅格地图转换为二值图,进行障碍物轮廓提取、简化与分割。本发明的方法利用多点云协同的方式进行地面分割,可以更准确地分割出地面,提取出障碍物点云。此外,采用多个多线激光传感器,盲区小,范围广,能够全方位360度检测无人车周围环境的静态障碍物,进一步克服单个激光检测存在大范围盲区的缺点。
-
公开(公告)号:CN116758131B
公开(公告)日:2023-11-28
申请号:CN202311050584.9
申请日:2023-08-21
Applicant: 之江实验室
IPC: G06T7/55 , G06N3/0455 , G06N3/08
Abstract: 本申请涉及一种单目图像深度估计方法、装置和计算机设备。所述方法包括:得到待估计图片的第一深度图;得到待估计毫米波点云的动态点集和第一位姿变换结果;得到后一帧待估计图片的第二深度图;计算后一帧待估计图片的第一深度图和第二深度图的投影误差;得到待估计毫米波点云的第二位姿变换结果;得到第一位姿变换结果和第二位姿变换结果的位姿估算误差;计算两帧待估计图片中的运动物体的深度误差;根据投影误差、位姿估算误差以及深度误差,得到整体训练损失,并利用整体训练损失对初始模型进行训练,直至收敛,得到完备深度估计模型,对待估计的图片进行单目图像深度估计。利用完备深度估计模型可以保证实现图像的深度估计结(56)对比文件Akash Deep Singh et al..DepthEstimation From Camera Image and mmWaveRadar Point Cloud《.Proceedings of theIEEE/CVF Conference on Computer Visionand Pattern Recognition (CVPR)》.2023,第9275-9285页.
-
公开(公告)号:CN116434183B
公开(公告)日:2023-11-14
申请号:CN202310215469.6
申请日:2023-03-08
Applicant: 之江实验室
Abstract: 本发明公开一种基于多点云协同融合的道路静态环境描述方法,包括:使用多个多线激光传感器,采集道路环境点云信息;对多个点云信息进行时间同步和空间对齐;利用多点云协同进行地面分割,提取出障碍物点云;融合多点云光线跟踪模型的结果,更新局部概率栅格地图;将局部概率栅格地图转换为二值图,进行障碍物轮廓提取、简化与分割。本发明的方法利用多点云协同的方式进行地面分割,可以更准确地分割出地面,提取出障碍物点云。此外,采用多个多线激光传感器,盲区小,范围广,能够全方位360度检测无人车周围环境的静态障碍物,进一步克服单个激光检测存在大范围盲区的缺点。
-
公开(公告)号:CN117036511A
公开(公告)日:2023-11-10
申请号:CN202311288072.6
申请日:2023-10-08
Applicant: 之江实验室
Abstract: 本申请涉及一种多类型传感器的标定方法、装置、计算机设备和存储介质。所述方法包括:首先获取目标场地的点云地图,再根据点云地图得到包括激光雷达、相机和组合导航的多类型传感器之间的外参,对多类型传感器进行标定。采用本申请的方法进行多类型传感器标定,由于无需特定的标定板,也不需要特定的标定场景,不要求传感器之间有共视区域,因此降低了多类型传感器标定的操作复杂度和提升了标定的准确性。
-
公开(公告)号:CN116863432A
公开(公告)日:2023-10-10
申请号:CN202311126363.5
申请日:2023-09-04
Applicant: 之江实验室
IPC: G06V20/56 , G06V20/70 , G06V10/40 , G06V10/774 , G06V10/84
Abstract: 本发明公开了一种基于深度学习的弱监督激光可行驶区域预测方法和系统,本发明利用激光可行驶区域预测算法较为容易的获得下采样点云是否地面点的粗略标注,将该粗略标注作为标签,从而较为容易的获得了用于训练深度学习点云特征提取模型的标签,但由于该标签的准确性有待提高,因此,在第一次对深度学习点云特征提取模型进行训练之后,基于当前预测得到的初始地面点预测概率和上一次预测得到的初始地面点预测概率通过交叉熵损失函数构建新增损失函数以完成之后的训练,因此能够利用大量的数据量较小的标注标签训练获得能够较为准确预测地面点概率的地面点预测模型,从而能够准确的获得可行驶区域。
-
公开(公告)号:CN116295354B
公开(公告)日:2023-09-29
申请号:CN202310320547.9
申请日:2023-03-24
Applicant: 之江实验室
Abstract: 本申请涉及一种无人车主动全局定位方法和系统,其中,该方法包括:构建先验地图,将先验地图进行场景分割,得到目标拓扑特征地图;将获取的当前观测全局描述子和当前观测特征信息,与目标拓扑特征地图进行匹配,得到候选位姿;计算候选位姿的邻近场景之间的差异度,将差异度最大的邻近场景作为无人车运动的全局目标;根据全局目标和候选位姿,获取虚拟观测数据并计算对应的信息增益,获取信息增益最大的虚拟观测数据,作为无人车运动的局部目标;根据局部目标进行最短路径规划,用于控制无人车运动进行主动全局定位。通过本申请,解决了无人车全局定位系统响应速度较慢和定位精度较低问题,提高了无人车主动全局定位的响应速度和定位准确性。
-
公开(公告)号:CN116758131A
公开(公告)日:2023-09-15
申请号:CN202311050584.9
申请日:2023-08-21
Applicant: 之江实验室
IPC: G06T7/55 , G06N3/0455 , G06N3/08
Abstract: 本申请涉及一种单目图像深度估计方法、装置和计算机设备。所述方法包括:得到待估计图片的第一深度图;得到待估计毫米波点云的动态点集和第一位姿变换结果;得到后一帧待估计图片的第二深度图;计算后一帧待估计图片的第一深度图和第二深度图的投影误差;得到待估计毫米波点云的第二位姿变换结果;得到第一位姿变换结果和第二位姿变换结果的位姿估算误差;计算两帧待估计图片中的运动物体的深度误差;根据投影误差、位姿估算误差以及深度误差,得到整体训练损失,并利用整体训练损失对初始模型进行训练,直至收敛,得到完备深度估计模型,对待估计的图片进行单目图像深度估计。利用完备深度估计模型可以保证实现图像的深度估计结果的稳定性。
-
-
-
-
-
-
-
-
-