一种多焦距立体视觉同时定位与建图实现方法及系统

    公开(公告)号:CN114049402A

    公开(公告)日:2022-02-15

    申请号:CN202111357100.6

    申请日:2021-11-16

    Abstract: 本发明请求保护一种多焦距立体视觉同时定位与建图实现方法及系统,属于自动驾驶、汽车环境感知和智能座舱技术领域。包括以下步骤:1.安装多焦距立体相机,使用改进的多焦距相机标定方法标定多焦距立体相机的投影矩阵Pl和右相机投影矩阵Pr。2.基于图像金字塔提取图像ORB特征点,并且对短焦距相机图像中与长焦距相机图像视野相同的部分增加ORB特征点提取数量。3.利用多焦距标定参数立体校正ORB特征点,并立体匹配ORB特征点,得到ORB特征点的三维位置,最后求解出自身位姿。本发明不仅能够实现和短焦距标准立体SLAM相同的定位精度,并且实现对远距离场景建图。

    一种基于人眼注意力的智能电子后视镜系统及实现方法

    公开(公告)号:CN113978366A

    公开(公告)日:2022-01-28

    申请号:CN202111399057.X

    申请日:2021-11-19

    Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。

    一种实现场景结构预测、目标检测和车道级定位的方法

    公开(公告)号:CN114067142B

    公开(公告)日:2024-09-24

    申请号:CN202111403259.7

    申请日:2021-11-24

    Abstract: 本发明请求保护一种实现场景结构预测、目标检测和车道级定位的方法,涉及自动驾驶、深度学习、计算机视觉等领域。首先本发明构建了一种车道级定位、场景结构预测和目标检测的神经网络,通过场景结构预测值和目标检测预测值与其真实值间的损失构建损失函数数学模型;通过图像和地图制作数据集并对网络进行训练;将网络部署于汽车上输出检测结果;最后将输出的场景结构通过匹配方法与地图进行检索匹配,矫正汽车的定位误差,实现车道级定位。该网络可以通过图像和地图制作数据集并对网络进行闭环训练且仅需要图像信息和地图信息就能完成场景结构预测、目标检测功能和车道级定位。场景结构预测结果里包含的道路结构可用于自动驾驶中。

    一种多焦距立体视觉同时定位与建图实现方法及系统

    公开(公告)号:CN114049402B

    公开(公告)日:2024-07-19

    申请号:CN202111357100.6

    申请日:2021-11-16

    Abstract: 本发明请求保护一种多焦距立体视觉同时定位与建图实现方法及系统,属于自动驾驶、汽车环境感知和智能座舱技术领域。包括以下步骤:1.安装多焦距立体相机,使用改进的多焦距相机标定方法标定多焦距立体相机的投影矩阵Pl和右相机投影矩阵Pr。2.基于图像金字塔提取图像ORB特征点,并且对短焦距相机图像中与长焦距相机图像视野相同的部分增加ORB特征点提取数量。3.利用多焦距标定参数立体校正ORB特征点,并立体匹配ORB特征点,得到ORB特征点的三维位置,最后求解出自身位姿。本发明不仅能够实现和短焦距标准立体SLAM相同的定位精度,并且实现对远距离场景建图。

    一种基于长短焦相机与毫米波雷达融合的目标检测方法

    公开(公告)号:CN114089329A

    公开(公告)日:2022-02-25

    申请号:CN202111371238.1

    申请日:2021-11-18

    Abstract: 本发明请求保护一种基于长短焦相机和毫米波雷达融合的目标检测方法,涉及自动驾驶、计算机视觉、图像处理、深度学习等领域。首先本发明构建具有目标检测功能的长短焦融合网络,获得长短焦相机系统的融合检测结果,并结合自适应图像金字塔来获取目标的深度信息;其次对长短焦相机与毫米波进行的空间关系进行标定;最后会基于目标相似程度对长短焦相机融合检测结果与毫米波雷达目标进行匹配和融合,得到更加精确的目标检测结果。本发明通过对不同传感器进行信息融合,可以充分发挥各传感器的目标检测优势,实现信息冗余和互补,提高目标检测的精度、极限距离和有效视野范围,使得智能驾驶系统更加安全可靠。

    基于深度学习的材料裂纹尖端多尺度应变场测量跟踪方法

    公开(公告)号:CN114065650A

    公开(公告)日:2022-02-18

    申请号:CN202111420167.X

    申请日:2021-11-26

    Abstract: 本发明请求保护一种基于深度学习的材料裂纹尖端多尺度应变场测量跟踪方法,包括步骤:在材料表面喷涂随机喷涂散斑,对材料施加外力作用使其发生形变并产生裂纹,使用不同焦距的相机组合来采集材料形变的多尺度信息。构造多尺度材料形变图像序列作为数据集。结合卷积、转置卷积、卷积LSTM神经网络,测量材料全局三维应变场的神经网络模型。利用训练集数据训练材料三维应变场测量神经网络模型。利用训练后的材料三维应变场测量神经网络模型,输入相机采集到的多尺度图像,实时测量材料的三维应变场,并通过应变场计算材料的裂纹区域,然后移动双目长焦相机来实时跟踪裂纹尖端。本发明可移动的长焦双目相机对裂纹区域进行跟踪。

    一种基于人眼注意力的AR-HUD/LCD全向目标检测与显示方法

    公开(公告)号:CN114037980A

    公开(公告)日:2022-02-11

    申请号:CN202111355877.9

    申请日:2021-11-16

    Abstract: 本发明请求保护一种基于人眼注意力的AR‑HUD/LCD全向目标检测与显示方法,属于自动驾驶、汽车环境感知和智能座舱技术领域。该方法通过单目相机获取驾驶人员的脸部图像;对单目相机标定获取相机的内参矩阵、畸变参数;对图像去畸变、灰度化后获取自商图;通过人脸检测器提取人脸区域,再提取左右瞳孔在单目相机像平面坐标;根据瞳孔像平面坐标和瞳孔距离约束求解驾驶员眼位空间坐标,用于AR‑HUD/LCD显示虚像;使用神经网络检测驾驶员人脸角度变化,得到驾驶员注意力向量,根据注意力向量在车载全景影像或全向雷达系统中区域检测目标,并通过AR‑HUD/LCD显示注意力向量区域的检测对象。本发明节约了系统计算资源,提高了检测系统的实时性。

Patent Agency Ranking