基于卷积LSTM神经网络的面向材料有效区域位移场测量方法

    公开(公告)号:CN114049329A

    公开(公告)日:2022-02-15

    申请号:CN202111355850.X

    申请日:2021-11-16

    Abstract: 本发明请求保护一种基于卷积LSTM神经网络的面向材料有效区域位移场测量方法,包括以下步骤:在材料表面喷涂随机喷涂散斑,使用相机连续采集图像以记录材料在外力作用下发生形变的过程。构造材料形变图像序列作为数据集,数据集包括训练集和测试集。结合卷积、反卷积、多任务和卷积LSTM神经网络,建立一个通过输入材料形变的图像序列来实时测量材料位移场并分割裂纹区域的神经网络模型。利用训练集数据训练材料位移场测量和裂纹区域分割的多任务卷积LSTM神经网络模型。输入相机采集到的时序图像数据,测量材料的实时位移场并分割材料出现裂纹的区域,最后得到非裂纹的有效区域的位移场。本发明能够更好的结合时空特征来对材料的形变位移场进行测量。

    一种基于多焦距相机与激光雷达融合的三维目标检测方法

    公开(公告)号:CN114114312A

    公开(公告)日:2022-03-01

    申请号:CN202111403257.8

    申请日:2021-11-24

    Abstract: 本发明请求保护一种基于多焦距相机与激光雷达融合的三维目标检测方法,属于自动驾驶、三维目标检测领域。包括以下步骤:1.多焦距相机由长短焦相机组成,对多焦距相机和激光雷达数据时空同步处理。2.利用分割网络分别对多焦距相机图像语义分割,利用分割结果生成视锥体,将激光雷达点云分别投影到长焦、短焦图像形成的视锥进行三维目标检测。3.利用多尺度图像金字塔实现长短焦图像特征点的精确匹配,通过特征匹配建立长短焦分割图像目标间的联系,通过这种联系对三维目标的数据关联和数据融合。本发明能应用在自动驾驶或辅助驾驶车辆上,对车辆周围进行环境感知,具有分类准确,定位精度高的特点,特别是对远距离目标检测精度有提高。

    一种基于人眼注意力的AR-HUD/LCD全向目标检测与显示方法

    公开(公告)号:CN114037980B

    公开(公告)日:2024-09-20

    申请号:CN202111355877.9

    申请日:2021-11-16

    Abstract: 本发明请求保护一种基于人眼注意力的AR‑HUD/LCD全向目标检测与显示方法,属于自动驾驶、汽车环境感知和智能座舱技术领域。该方法通过单目相机获取驾驶人员的脸部图像;对单目相机标定获取相机的内参矩阵、畸变参数;对图像去畸变、灰度化后获取自商图;通过人脸检测器提取人脸区域,再提取左右瞳孔在单目相机像平面坐标;根据瞳孔像平面坐标和瞳孔距离约束求解驾驶员眼位空间坐标,用于AR‑HUD/LCD显示虚像;使用神经网络检测驾驶员人脸角度变化,得到驾驶员注意力向量,根据注意力向量在车载全景影像或全向雷达系统中区域检测目标,并通过AR‑HUD/LCD显示注意力向量区域的检测对象。本发明节约了系统计算资源,提高了检测系统的实时性。

    面向材料力学性能的智能三维位移场及应变场测量方法

    公开(公告)号:CN114396877A

    公开(公告)日:2022-04-26

    申请号:CN202111400666.2

    申请日:2021-11-19

    Abstract: 本发明请求保护一种面向材料力学性能的智能三维位移场及应变场测量方法,包括以下步骤:步骤1.在材料表面喷涂随机喷涂散斑,使用两个相机同时连续采集图像以记录材料在外力作用下发生形变的过程。步骤2.构造记录材料形变的双目图像作为数据集;步骤3.结合2D卷积、3D卷积、转置卷积、卷积LSTM和多任务神经网络,建立一个三维位移场和应变场的神经网络模型。步骤4.利用训练集数据训练三维位移场和应变场计算神经网络模型。步骤5.计算材料的三维位移场和应变场。本发明通过2D卷积来提取图像中的特征信息,利用3D卷积对特征信息进行细化和编码,最后利用卷积LSTM神经网络的时间和空间特征提取能力结合转置卷积来计算材料三维位移场和应变场。

    一种实现场景结构预测、目标检测和车道级定位的方法

    公开(公告)号:CN114067142A

    公开(公告)日:2022-02-18

    申请号:CN202111403259.7

    申请日:2021-11-24

    Abstract: 本发明请求保护一种实现场景结构预测、目标检测和车道级定位的方法,涉及自动驾驶、深度学习、计算机视觉等领域。首先本发明构建了一种车道级定位、场景结构预测和目标检测的神经网络,通过场景结构预测值和目标检测预测值与其真实值间的损失构建损失函数数学模型;通过图像和地图制作数据集并对网络进行训练;将网络部署于汽车上输出检测结果;最后将输出的场景结构通过匹配方法与地图进行检索匹配,矫正汽车的定位误差,实现车道级定位。该网络可以通过图像和地图制作数据集并对网络进行闭环训练且仅需要图像信息和地图信息就能完成场景结构预测、目标检测功能和车道级定位。场景结构预测结果里包含的道路结构可用于自动驾驶中。

    一种多焦距视觉SLAM与GPS融合的方法及存储介质

    公开(公告)号:CN114063127A

    公开(公告)日:2022-02-18

    申请号:CN202111355852.9

    申请日:2021-11-16

    Abstract: 本发明请求保护一种多焦距视觉SLAM与GPS融合的方法,所属领域为自动驾驶及智能汽车环境地图构建和定位领域。包括以下步骤:1.安装多焦距相机和GPS模块,短焦距和长焦距相机水平放置。2.多焦距相机之间的标定,同时采集获取多焦距图像和GPS数据。3.根据多焦距相机焦距的差异,分别基于图像金字塔提取图像特征点,进行特征匹配。4.采集到的GPS定位数据坐标转换到多焦距视觉SLAM世界坐标系下。5.转换后的GPS数据和多焦距视觉SLAM数据进行时间戳对齐。6.时间戳对齐后的GPS数据和SLAM图像数据构建图优化模型优化位姿。7.由SLAM生成的运行轨迹在地图上匹配对应的地图道路轨迹。

    一种基于人眼注意力的智能电子后视镜系统及实现方法

    公开(公告)号:CN113978366B

    公开(公告)日:2024-12-06

    申请号:CN202111399057.X

    申请日:2021-11-19

    Abstract: 本发明请求保护一种基于人眼注意力的智能电子后视镜系统及实现方法,涉及智能驾驶、辅助驾驶、深度学习、智能座舱技术等领域。该方法通过单目相机获取驾驶人员的脸部图像;通过人眼注意力检测网络检测人脸,得到驾驶员的头部姿态、视线方向及注意力方向;驾驶员视线向左或向右时,左边或右边电子后视镜屏幕调整画面显示,中控LCD显示屏显示左边或右边车道场景,视线回正后中控LCD保持显示;同时使用目标检测网络对车辆周围环境进行目标检测,当驾驶员进行变道、转向等操作,或周围出现危险目标靠近,左右电子后视镜屏幕显示后方区域的检测对象,中控LCD显示车辆周围的危险对象;本发明提高了驾驶的安全性。

    面向材料力学性能的智能三维位移场及应变场测量方法

    公开(公告)号:CN114396877B

    公开(公告)日:2023-09-26

    申请号:CN202111400666.2

    申请日:2021-11-19

    Abstract: 本发明请求保护一种面向材料力学性能的智能三维位移场及应变场测量方法,包括以下步骤:步骤1.在材料表面喷涂随机喷涂散斑,使用两个相机同时连续采集图像以记录材料在外力作用下发生形变的过程。步骤2.构造记录材料形变的双目图像作为数据集;步骤3.结合2D卷积、3D卷积、转置卷积、卷积LSTM和多任务神经网络,建立一个三维位移场和应变场的神经网络模型。步骤4.利用训练集数据训练三维位移场和应变场计算神经网络模型。步骤5.计算材料的三维位移场和应变场。本发明通过2D卷积来提取图像中的特征信息,利用3D卷积对特征信息进行细化和编码,最后利用卷积LSTM神经网络的时间和空间特征提取能力结合转置卷积来计算材料三维位移场和应变场。

Patent Agency Ranking