-
公开(公告)号:CN114114312A
公开(公告)日:2022-03-01
申请号:CN202111403257.8
申请日:2021-11-24
Applicant: 重庆邮电大学
IPC: G01S17/86 , G01S17/894 , G01S17/931 , G01S7/48
Abstract: 本发明请求保护一种基于多焦距相机与激光雷达融合的三维目标检测方法,属于自动驾驶、三维目标检测领域。包括以下步骤:1.多焦距相机由长短焦相机组成,对多焦距相机和激光雷达数据时空同步处理。2.利用分割网络分别对多焦距相机图像语义分割,利用分割结果生成视锥体,将激光雷达点云分别投影到长焦、短焦图像形成的视锥进行三维目标检测。3.利用多尺度图像金字塔实现长短焦图像特征点的精确匹配,通过特征匹配建立长短焦分割图像目标间的联系,通过这种联系对三维目标的数据关联和数据融合。本发明能应用在自动驾驶或辅助驾驶车辆上,对车辆周围进行环境感知,具有分类准确,定位精度高的特点,特别是对远距离目标检测精度有提高。
-
公开(公告)号:CN114048536A
公开(公告)日:2022-02-15
申请号:CN202111371245.1
申请日:2021-11-18
Applicant: 重庆邮电大学
IPC: G06F30/13 , G06F30/27 , G06V20/58 , G06V10/74 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/08 , G06T9/00 , G06F111/10
Abstract: 本发明请求保护一种基于多任务神经网络的道路结构预测与目标检测方法,涉及自动驾驶、深度学习、计算机视觉等领域。首先本发明构建了一个上下文参数共享机制的多任务神经网络,具有同时预测道路结构和目标检测的功能;并且通过道路结构预测值和车辆布局预测值与其真实值间的损失构建损失函数数学模型;其次通过图像和地图制作数据集并对网络的预测部分进行闭环训练;最后部署于汽车上,并应用于预测道路结构与目标检测中。本发明方法中的多任务神经网络仅需要图像信息就能完成道路结构预测与目标检测功能,对图像中不可见以及被遮挡区域也可进行道路结构与目标的预测。
-
公开(公告)号:CN114067142A
公开(公告)日:2022-02-18
申请号:CN202111403259.7
申请日:2021-11-24
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种实现场景结构预测、目标检测和车道级定位的方法,涉及自动驾驶、深度学习、计算机视觉等领域。首先本发明构建了一种车道级定位、场景结构预测和目标检测的神经网络,通过场景结构预测值和目标检测预测值与其真实值间的损失构建损失函数数学模型;通过图像和地图制作数据集并对网络进行训练;将网络部署于汽车上输出检测结果;最后将输出的场景结构通过匹配方法与地图进行检索匹配,矫正汽车的定位误差,实现车道级定位。该网络可以通过图像和地图制作数据集并对网络进行闭环训练且仅需要图像信息和地图信息就能完成场景结构预测、目标检测功能和车道级定位。场景结构预测结果里包含的道路结构可用于自动驾驶中。
-
公开(公告)号:CN114067142B
公开(公告)日:2024-09-24
申请号:CN202111403259.7
申请日:2021-11-24
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种实现场景结构预测、目标检测和车道级定位的方法,涉及自动驾驶、深度学习、计算机视觉等领域。首先本发明构建了一种车道级定位、场景结构预测和目标检测的神经网络,通过场景结构预测值和目标检测预测值与其真实值间的损失构建损失函数数学模型;通过图像和地图制作数据集并对网络进行训练;将网络部署于汽车上输出检测结果;最后将输出的场景结构通过匹配方法与地图进行检索匹配,矫正汽车的定位误差,实现车道级定位。该网络可以通过图像和地图制作数据集并对网络进行闭环训练且仅需要图像信息和地图信息就能完成场景结构预测、目标检测功能和车道级定位。场景结构预测结果里包含的道路结构可用于自动驾驶中。
-
公开(公告)号:CN114089329A
公开(公告)日:2022-02-25
申请号:CN202111371238.1
申请日:2021-11-18
Applicant: 重庆邮电大学
IPC: G01S13/86 , G01S13/08 , G01S13/58 , G01S13/931 , G01S11/12
Abstract: 本发明请求保护一种基于长短焦相机和毫米波雷达融合的目标检测方法,涉及自动驾驶、计算机视觉、图像处理、深度学习等领域。首先本发明构建具有目标检测功能的长短焦融合网络,获得长短焦相机系统的融合检测结果,并结合自适应图像金字塔来获取目标的深度信息;其次对长短焦相机与毫米波进行的空间关系进行标定;最后会基于目标相似程度对长短焦相机融合检测结果与毫米波雷达目标进行匹配和融合,得到更加精确的目标检测结果。本发明通过对不同传感器进行信息融合,可以充分发挥各传感器的目标检测优势,实现信息冗余和互补,提高目标检测的精度、极限距离和有效视野范围,使得智能驾驶系统更加安全可靠。
-
公开(公告)号:CN113978366B
公开(公告)日:2024-12-06
申请号:CN202111399057.X
申请日:2021-11-19
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。
-
公开(公告)号:CN113978366A
公开(公告)日:2022-01-28
申请号:CN202111399057.X
申请日:2021-11-19
Applicant: 重庆邮电大学
Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。
-
-
-
-
-
-