-
公开(公告)号:CN109003286A
公开(公告)日:2018-12-14
申请号:CN201810836073.2
申请日:2018-07-26
Applicant: 清华大学苏州汽车研究院(吴江)
Abstract: 本发明公开了一种基于深度学习和激光雷达的道路分割方法,包括:对端到端的神经网络进行模型训练;利用训练完成的模型对输入端的图像数据进行处理得到道路分割结果;将激光雷达三维空间标定和图像采集模块采集的图像数据进行像素级匹配,将分割结果目标之间的边界部分采用激光雷达的点云图进行矫正。利用深度学习的像素级定义精度识别的深度学习网络,通过消失点回归定位,道路边界检测,目标分割来实现车道线的准确分割,并且分割出的路面目标包含车道线,行车指示标志内容,可实现精确道路分割的效果。
-
公开(公告)号:CN111160230B
公开(公告)日:2023-06-06
申请号:CN201911372843.3
申请日:2019-12-27
Applicant: 清华大学苏州汽车研究院(吴江)
Abstract: 本发明公开了一种基于深度学习的道路不规则区域检测网络,包括编码部分和解码部分,所述编码部分采用FPN作为主干网络,主干网络中卷积操作采用可变性卷积以适应不规则目标的结构,并设计Deformable OctConv对目标的高低频进行分解,还设计DOSEnet结构实现自动监督的注意力机制,提升关键目标的学习权重;所述解码部分分为三个分支,分别为前景分支、背景分支和区域候选网络分支,采用DUpsample结构。本发明基于深度学习的道路不规则区域检测网络,为自动驾驶或者高级辅助驾驶提供安全可靠的预警信息;本发明网络的设计针对不规则目标,较普通网络对不规则目标更具有适应性,训练后的模型精度更高;本发明在网络检测精度的前提下,设计方案中采用多种优化手段提升计算速度。
-
公开(公告)号:CN111160230A
公开(公告)日:2020-05-15
申请号:CN201911372843.3
申请日:2019-12-27
Applicant: 清华大学苏州汽车研究院(吴江)
Abstract: 本发明公开了一种基于深度学习的道路不规则区域检测网络,包括编码部分和解码部分,所述编码部分采用FPN作为主干网络,主干网络中卷积操作采用可变性卷积以适应不规则目标的结构,并设计Deformable OctConv对目标的高低频进行分解,还设计DOSEnet结构实现自动监督的注意力机制,提升关键目标的学习权重;所述解码部分分为三个分支,分别为前景分支、背景分支和区域候选网络分支,采用DUpsample结构。本发明基于深度学习的道路不规则区域检测网络,为自动驾驶或者高级辅助驾驶提供安全可靠的预警信息;本发明网络的设计针对不规则目标,较普通网络对不规则目标更具有适应性,训练后的模型精度更高;本发明在网络检测精度的前提下,设计方案中采用多种优化手段提升计算速度。
-
公开(公告)号:CN108108750A
公开(公告)日:2018-06-01
申请号:CN201711316339.2
申请日:2017-12-12
Applicant: 清华大学苏州汽车研究院(吴江)
CPC classification number: G06K9/6256 , G06N3/08
Abstract: 本发明公开了一种基于深度学习和单目视觉的距离空间重建方法,包括以下步骤:对图像采集模块采集的图像进行标定,标记图像的目标轮廓、类型、目标倾斜角度以及目标距离,将各标注数据组合成多为向量数组作为样本训练标签;将样本训练标签作为深度神经网络的输入,训练深度神经网络,通过深度神经网络重建空间结构,通过目标识别、边框回归和空间结构回归进行目标距离估计。利用深度学习的强大的非线性拟合功能,综合所有样本的距离空间信息,在全局上进行距离估计,准确率会大幅度提高。
-
公开(公告)号:CN112085801B
公开(公告)日:2024-03-19
申请号:CN202010932749.5
申请日:2020-09-08
Applicant: 清华大学苏州汽车研究院(吴江) , 清华大学
IPC: G06T7/80 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于神经网络的三维点云和二维图像融合的校准方法,包括:获取图像的像素坐标,及激光雷达的体素坐标;建立像素坐标点和体素坐标点一一对应的N*N矩阵作为训练集;构建神经网络结构,所述神经网络结构包括矩阵乘积核和矩阵乘积层,所述神经网络结构包括输入层、外参乘积层、内参乘积层,所述输入层为体素坐标矩阵,所述外参乘积层权重为外参矩阵,所述内参乘积层权重为内参矩阵;将静态标定的外参矩阵作为初始值训练模型;使用训练完成的模型得到外参矩阵,根据得到的外参矩阵对三维点云和二维图像进行融合。该方法可以得到更加精确的外参矩阵,使得三维点云到二维图像的融合更加准确。
-
公开(公告)号:CN112085801A
公开(公告)日:2020-12-15
申请号:CN202010932749.5
申请日:2020-09-08
Applicant: 清华大学苏州汽车研究院(吴江) , 清华大学
Abstract: 本发明公开了一种基于神经网络的三维点云和二维图像融合的校准方法,包括:获取图像的像素坐标,及激光雷达的体素坐标;建立像素坐标点和体素坐标点一一对应的N*N矩阵作为训练集;构建神经网络结构,所述神经网络结构包括矩阵乘积核和矩阵乘积层,所述神经网络结构包括输入层、外参乘积层、内参乘积层,所述输入层为体素坐标矩阵,所述外参乘积层权重为外参矩阵,所述内参乘积层权重为内参矩阵;将静态标定的外参矩阵作为初始值训练模型;使用训练完成的模型得到外参矩阵,根据得到的外参矩阵对三维点云和二维图像进行融合。该方法可以得到更加精确的外参矩阵,使得三维点云到二维图像的融合更加准确。
-
公开(公告)号:CN111178236B
公开(公告)日:2023-06-06
申请号:CN201911372866.4
申请日:2019-12-27
Applicant: 清华大学苏州汽车研究院(吴江)
Abstract: 本发明公开了一种基于深度学习的车位检测方法,由车载的多个鱼眼摄像头拍摄图像,经过变形矫正后拼接成360度环视图图像;首先通过一个深度学习训练的目标检测网络将环视图图像中的车位检测出来;将检测的车位进行截取,输入到一个深度学习训练的图像分割网络中,将截取车位的车位线分割出来,得到截取车位图片对应的掩模;在输出的掩模上通过图像处理和逻辑处理得出车位的四个角点坐标,并映射回原图中,由此检测出车位位置。本发明的车位检测方法,为自动泊车系统提供精确的车位位置信息;减少车位检测过程中因为其他噪声造成的检测不准的影响,提高车位检测系统的鲁棒性;在保证车位检测准确率的情况下,尽量提高车位检测速度。
-
公开(公告)号:CN111178236A
公开(公告)日:2020-05-19
申请号:CN201911372866.4
申请日:2019-12-27
Applicant: 清华大学苏州汽车研究院(吴江)
Abstract: 本发明公开了一种基于深度学习的车位检测方法,由车载的多个鱼眼摄像头拍摄图像,经过变形矫正后拼接成360度环视图图像;首先通过一个深度学习训练的目标检测网络将环视图图像中的车位检测出来;将检测的车位进行截取,输入到一个深度学习训练的图像分割网络中,将截取车位的车位线分割出来,得到截取车位图片对应的掩模;在输出的掩模上通过图像处理和逻辑处理得出车位的四个角点坐标,并映射回原图中,由此检测出车位位置。本发明的车位检测方法,为自动泊车系统提供精确的车位位置信息;减少车位检测过程中因为其他噪声造成的检测不准的影响,提高车位检测系统的鲁棒性;在保证车位检测准确率的情况下,尽量提高车位检测速度。
-
-
-
-
-
-
-