基于改进DeepSort框架的隧道场景中车辆跟踪方法

    公开(公告)号:CN118711143A

    公开(公告)日:2024-09-27

    申请号:CN202410703161.0

    申请日:2024-06-03

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于改进DeepSort框架的隧道场景中车辆跟踪方法,包括:设计用于提取关键特征信息的通道空间融合注意力机制CA;构建基于通道空间融合注意力机制CA的隧道场景中车辆检测模型YOLOv5‑AM‑VD‑TS;运动预测与状态估计;设计用于提高网络特征提取能力的通道注意力机制SE;构建隧道场景中车辆重识别模型IResNet50‑VRI‑TS;目标车辆关联匹配:将目标关联问题转换为求解最优匹配的问题,对帧与帧之间各个目标进行最优匹配;构建基于改进DeepSort框架的隧道场景中车辆跟踪模型DTM‑YAVT‑IVT,进行车辆跟踪。本发明针对车辆检测模型和重识别模型现存问题进行改进,提高了隧道监控系统的实时性和准确性,对智慧交通系统发展具有重要意义。

    基于几何空间融合特征深度注意力网络的驾驶员行为识别方法

    公开(公告)号:CN119919916A

    公开(公告)日:2025-05-02

    申请号:CN202510009901.5

    申请日:2025-01-03

    Applicant: 东南大学

    Abstract: 本发明提出了一种基于几何空间融合特征深度注意力网络的驾驶员行为识别方法,包括:构建驾驶员行为标准图像数据集SAA13和special;构建基于YOLO‑pose的驾驶员骨干空间特征生成模型;研究结合图像的上下文几何特征与驾驶员的骨干空间特征作为输入的双流融合特征;研究并设计专门用于复杂驾驶场景当中的多源协同注意力MCA‑DBR模块;研究将MCA‑DBR模块嵌入网络浅层位置以加强网络对驾驶员局部细节特征的提取能力;将强化后的特征图输入到分类网络的搭建模块当中进行深层语义特征提取;使用softmax激活函数对DAN‑GSFF提取到的深度特征进行解码并输出最终的识别结果。DAN‑GSFF在SAA13综合数据集上实现了90.11%的精度和96.2的FPS,这为提高网络对驾驶员行为的识别能力提供了一种可行方法。

    基于改进多智能体结构大语言模型的高速公路门架场景中多源车辆信息匹配融合方法

    公开(公告)号:CN118861979A

    公开(公告)日:2024-10-29

    申请号:CN202410891862.1

    申请日:2024-07-04

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于改进多智能体结构大语言模型的高速公路门架场景中多源车辆信息匹配融合方法,包括:对高速公路门架场景中多源车辆信息感知数据进行挖掘和标注;构建高速公路门架场景中多源车辆信息匹配融合数据集;基于多源车辆信息匹配流程,构建基于改进多智能体结构大语言模型的多源车辆信息匹配融合模型LLMMADA‑MVIMF‑EGS;根据融合数据集,通过模型LLMMADA‑MVIMF‑EGS输出多源车辆信息匹配融合结果,实现高速公路门架场景中多源车辆信息匹配融合。本发明在大语言模型的基础上,针对具体的高速公路门架场景中多源车辆信息数据进行匹配训练,为高速公路门架ETC收费提供一定的技术支持。

    基于深度学习融合模型的公路路面病害感知方法

    公开(公告)号:CN119649133A

    公开(公告)日:2025-03-18

    申请号:CN202411789193.3

    申请日:2024-12-06

    Applicant: 东南大学

    Abstract: 本发明公开了基于深度学习融合模型的公路路面病害感知方法,包括:构建了东南大学公路路面病害图像集;构建用于高速场景中路面病害像素级语义分割的DL‑M‑PDS模型;进行路面病害图像像素级分割信息与原图像融合;构建用于高速公路场景中路面病害感知的FCNN‑PDP模型;进行消融实验,选取用于高速公路场景中路面病害感知性能最好的模型FCNN‑PDP。本发明提出高速场景中公路面病害图像数据集的构建方法,构建基于YOLOv8目标检测网络和DeepLabv3语义分割网络高速场景中路面病害感知方法,从而实现高速公路路面病害的高精度实时检测。

    基于优化多源线性融合网络的驾驶姿态行为识别方法

    公开(公告)号:CN118506334A

    公开(公告)日:2024-08-16

    申请号:CN202410656867.6

    申请日:2024-05-24

    Applicant: 东南大学

    Abstract: 本发明提出了一种基于优化多源线性融合网络的驾驶姿态行为识别方法,包括:构建驾驶姿态行为标准图像数据集RSF‑DPB和ASU‑DPB;研究用于加强网络关键特征提取能力的MCA模块和缩小特征类内距和扩大特征类间距的OLE损失;构建基于优化方法的驾驶姿态行为识别模型A‑ResNet50‑OLE‑DPB,获取一维特征向量FR;构建基于优化方法的驾驶姿态行为识别模型A‑Xception‑OLE‑DPB,获取一维特征向量FX;构建基于优化方法的驾驶姿态行为识别模型A‑FasterNet‑OLE‑DPB,获取一维特征向量FF;将特征向量FR、FX、FF融合,构建优化多源线性融合网络A‑MFN‑OLE‑DPB,在构建的RSF‑DPB和ASU‑DPB数据集上的精度分别达到了98.23%和93.50%,这为提高网络对驾驶姿态行为的识别精度提供了一种可行方法。

Patent Agency Ranking