-
公开(公告)号:CN119740192A
公开(公告)日:2025-04-01
申请号:CN202510239407.8
申请日:2025-03-03
Applicant: 山东高速集团有限公司创新研究院 , 长安大学
Abstract: 本发明公开了一种路侧视角下基于多源数据融合的车辆状态采集方法,本发明涉及数据分析技术领域,包括以下步骤:在路侧部署多种采集设备采集车辆状态和环境条件的原始数据,并对采集的原始数据进行预处理;对预处理后的不同传感器采集的原始数据进行时间同步操作。该路侧视角下基于多源数据融合的车辆状态采集方法,通过分析不同环境条件下传感器数据的状况,并分析对车辆状态数据采集的干扰程度,量化分析以便实施对应的数据调整措施,进而提高后续交通管理的准确度,通过整合不同来源的数据,实现车辆状态的实时监测和动态交通管理,从而为交通管理部门制定针对性的预防措施提供科学依据。
-
公开(公告)号:CN114881339B
公开(公告)日:2025-02-07
申请号:CN202210545736.1
申请日:2022-05-19
Applicant: 长安大学
IPC: G06Q10/04 , G06Q50/40 , G06F18/213 , G06F18/2415 , G06F18/25 , G06N3/0442 , G06N3/0455 , G06N3/0464 , G06N3/08 , G06F123/02
Abstract: 本发明属于自动驾驶领域,公开了一种车辆轨迹预测方法、系统、计算机设备及存储介质,包括:提取待预测车辆及待预测车辆各相邻车辆的历史运动轨迹数据,得到待预测车辆的多维动态场景特征向量;提取待预测车辆的多维动态场景特征向量,得到待预测车辆的交通感知信息;编码待预测车辆的交通感知信息以及历史运动状态数据,得到待预测车辆的隐状态信息;根据待预测车辆的隐状态信息,得到待预测车辆的混合注意力矩阵,并通过待预测车辆的混合注意力矩阵为待预测车辆的隐状态信息分配权重,然后依次通过最大池化处理和全连接处理,得到待预测车辆的轨迹预测值,最终有效提升了车辆轨迹预测准确性。
-
公开(公告)号:CN111339967A
公开(公告)日:2020-06-26
申请号:CN202010131268.4
申请日:2020-02-28
Applicant: 长安大学
Abstract: 本发明公开了一种基于多视域图卷积网络的行人检测方法,采用卷积神经网络从待处理图像进行特征提取,对提取的特征图像进行多次池化、卷积处理得到预处理特征图像,然后采用多视域池化金字塔提取中得到的预处理特征图像的多尺度特征信息特征图,然后进行人体图卷积得到多个人体图卷积后的特征图,采用Nbox个锚点的预测框分别对人体图卷积后的特征图中的人体目标区域进行预测并识别,完成预测框及预测类别概率值,使用最大池化构建多视域特征金字塔,提高了检测效率,本发明能够有效且高效地处理行人检测中的尺度变化和遮挡问题。
-
公开(公告)号:CN113139446B
公开(公告)日:2024-02-06
申请号:CN202110391084.6
申请日:2021-04-12
Applicant: 长安大学
IPC: G06V20/56 , G06V10/26 , G06V10/40 , G06V10/764 , G06V10/82 , G06N3/0442 , G06N3/0455 , G06N3/0495 , G06N3/082
Abstract: 本发明公开了一种端到端自动驾驶行为决策方法、系统及终端设备,属于自动驾驶领域。通过嵌入注意力机制的卷积神经网络提取场景空间位置特征,构建空间特征提取网络,准确解析场景目标空间特征及语义信息;通过嵌入时间注意力机制的长短期记忆网络编码‑解码结构捕捉场景时间上下文特征,构建时间特征提取网络,理解记忆场景时间序列信息;本发明综合场景空间信息与时间序列信息,同时结合注意力机制为关键视觉区域和运动序列赋予较高权重,使得预测过程更符合人类驾驶员的驾驶习惯,预测结果更加准确。(56)对比文件杜圣东;李天瑞;杨燕;王浩;谢鹏;洪西进.一种基于序列到序列时空注意力学习的交通流预测模型.计算机研究与发展.2020,(第08期),全文.王军;鹿姝;李云伟.融合注意力机制和连接时序分类的多模态手语识别.信号处理.2020,(第09期),全文.胡学敏;童秀迟;郭琳;张若晗;孔力.基于深度视觉注意神经网络的端到端自动驾驶模型.计算机应用.2020,(第07期),全文.
-
公开(公告)号:CN115063975B
公开(公告)日:2023-07-11
申请号:CN202210648480.7
申请日:2022-06-09
Applicant: 长安大学
IPC: G08G1/01 , G06N3/0464 , G06N3/08
Abstract: 本发明属于交通控制技术领域,公开了一种短时交通流数据预测方法、系统、计算机设备及存储介质,包括:获取待预测区域以及待预测区域各相关区域的历史交通流数据;根据待预测区域的历史交通流数据,得到待预测区域当前时段的周期性交通流数据,以及结合待预测区域各相关区域的历史交通流数据,通过预设的时空特征选择方法,得到待预测区域的最优相关历史交通流数据;获取待预测区域当前时段的外部特征影响因素数据,并将待预测区域当前时段的外部特征影响因素数据、当前时段的周期性交通流数据及最优相关历史交通流数据输入预设的交通流预测模型,得到待预测区域的交通流数据短时预测值,有效提升了短时交通流数据预测的准确性。
-
公开(公告)号:CN111339967B
公开(公告)日:2023-04-07
申请号:CN202010131268.4
申请日:2020-02-28
Applicant: 长安大学
IPC: G06V40/10 , G06V10/46 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多视域图卷积网络的行人检测方法,采用卷积神经网络从待处理图像进行特征提取,对提取的特征图像进行多次池化、卷积处理得到预处理特征图像,然后采用多视域池化金字塔提取中得到的预处理特征图像的多尺度特征信息特征图,然后进行人体图卷积得到多个人体图卷积后的特征图,采用Nbox个锚点的预测框分别对人体图卷积后的特征图中的人体目标区域进行预测并识别,完成预测框及预测类别概率值,使用最大池化构建多视域特征金字塔,提高了检测效率,本发明能够有效且高效地处理行人检测中的尺度变化和遮挡问题。
-
公开(公告)号:CN114970321A
公开(公告)日:2022-08-30
申请号:CN202210461605.5
申请日:2022-04-28
Applicant: 长安大学
Abstract: 本发明公开了一种基于动态轨迹流的场景流数字孪生方法及系统,首先提出一种检测跟踪一体化多模态融合感知增强网络,在大幅度提高网络处理速度的同时,实现目标语义轨迹的精准提取与辨识;并提出一种结合道路布局与交通力耦合关系的目标轨迹预测方法,建模场景中语义的时序演变规律,实现交通运行环境中的目标轨迹预测;基于轨迹提取和语义辨识以及预测的运动轨迹,对中观层面交通态势的时序演变规律建模,获取基于真实目标动态轨迹流的场景流数字孪生。本发明能够有效实现目标语义轨迹的精准提取与辨识,同时可视化场景流数字孪生,为精准化交通管控服务提供决策支持。
-
公开(公告)号:CN117111055A
公开(公告)日:2023-11-24
申请号:CN202310723468.2
申请日:2023-06-19
Applicant: 山东高速集团有限公司 , 长安大学
IPC: G01S13/86
Abstract: 本发明提供了一种基于雷视融合的车辆状态感知方法,属于自动驾驶技术领域,包括:利用车载相机获取第一车辆周围的二维图像,利用车载雷达获取第一车辆周围的三维雷达点云数据;获取相机和雷达之间的旋转平移矩阵;使用旋转平移矩阵将雷达获取的雷达点云数据投影到二维图像中,结合其他车辆相对于第一车辆的距离信息得到二维图像中每一个点的距离信息;根据二维图像中每一个点的距离信息,在二维图像中输出其他车辆相对于第一车辆的距离信息,实现基于雷视融合的车辆状态感知。该方法能够进行车辆状态感知。
-
公开(公告)号:CN114970321B
公开(公告)日:2025-03-07
申请号:CN202210461605.5
申请日:2022-04-28
Applicant: 长安大学
IPC: G06F30/27 , G06F30/18 , G06T17/00 , G06Q10/04 , G06Q50/40 , G06N3/0442 , G06N3/0464 , G06N3/09 , G06F111/04
Abstract: 本发明公开了一种基于动态轨迹流的场景流数字孪生方法及系统,首先提出一种检测跟踪一体化多模态融合感知增强网络,在大幅度提高网络处理速度的同时,实现目标语义轨迹的精准提取与辨识;并提出一种结合道路布局与交通力耦合关系的目标轨迹预测方法,建模场景中语义的时序演变规律,实现交通运行环境中的目标轨迹预测;基于轨迹提取和语义辨识以及预测的运动轨迹,对中观层面交通态势的时序演变规律建模,获取基于真实目标动态轨迹流的场景流数字孪生。本发明能够有效实现目标语义轨迹的精准提取与辨识,同时可视化场景流数字孪生,为精准化交通管控服务提供决策支持。
-
公开(公告)号:CN117079277A
公开(公告)日:2023-11-17
申请号:CN202310841112.9
申请日:2023-07-10
Applicant: 山东高速集团有限公司 , 长安大学
IPC: G06V20/70 , G06V20/58 , G06V10/26 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于深度学习的交通场景实时语义分割方法,包括以下步骤,步骤1,获取训练图像,对训练图像进行预处理;步骤2,构建交通场景语义分割网络,构建时的编码器采用MobileNetV2骨干特征提取网络,形成骨干网络MobielNetV2的DeeplabV3+网络模型;采用训练图像训练交通场景语义分割网络,得到语义分割网络模型;步骤3,依据语义分割网络模型对交通场景实时进行语义分割。通过对DeepLabv3+解码器和损失函数进行改进,提高了现有语义分割模型的分割精度,同时降低计算量和参数量,从而可以更好的在硬件存储和计算力有限的车载嵌入式平台中的得到广泛应用。
-
-
-
-
-
-
-
-
-