-
公开(公告)号:CN117612142A
公开(公告)日:2024-02-27
申请号:CN202311520633.0
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V20/59 , G06V10/764 , G06V10/774 , G06V10/80 , G06V40/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多任务联合模型的头部姿态与疲劳状态检测方法,包括以下步骤:在YOLOv6的基础上,设计基于聚集与分流机制的加强特征提取网络;在模型中增加融合大核注意力机制的头部姿态估计分支;对人脸数据集标注形成疲劳驾驶数据集;通过目标检测损失函数和头部姿态估计损失函数训练疲劳分神检测模型;将模型部署于车载终端设备,通过模型检测头部姿态和疲劳状态并输出信息;通过某一类别持续时间与设定阈值进行比较来判定是否处于疲劳状态或分神状态。本发明提高模型的泛化性能、鲁棒性、可靠性及检测精度、减少模型训练的时间和计算资源,提高驾驶员的安全性,减少驾驶中的疲劳分心行为,降低交通事故的发生率。
-
公开(公告)号:CN117541865B
公开(公告)日:2024-06-04
申请号:CN202311517773.2
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V10/764 , G06V10/774 , G06V10/25 , G06N3/0464
Abstract: 本发明公开了一种基于粗粒度深度估计的身份分析和手机使用检测方法,包括以下步骤:设计位置估计模型,准备数据集;将数据集输入位置估计模型中进行训练;通过训练后的模型检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份;对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机。本发明可准确区分车内人员身份,判断驾驶员是否使用手机,满足对于驾驶人员行为不同的检测需求,有助于提高驾驶的安全性。
-
公开(公告)号:CN117541865A
公开(公告)日:2024-02-09
申请号:CN202311517773.2
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V10/764 , G06V10/774 , G06V10/25 , G06N3/0464
Abstract: 本发明公开了一种基于粗粒度深度估计的身份分析和手机使用检测方法,包括以下步骤:设计位置估计模型,准备数据集;将数据集输入位置估计模型中进行训练;通过训练后的模型检测车内人员和手机并输出检测信息,输出信息包括目标类别、检测框及深度信息;对于车内所有检测到的人员通过联合深度信息的粗粒度深度值和感兴趣区域的方法来判定身份;对于所有检测到的手机通过联合深度信息的粗粒度深度值和距离驾驶员检测框中心点的距离的方法来判定驾驶员是否使用手机。本发明可准确区分车内人员身份,判断驾驶员是否使用手机,满足对于驾驶人员行为不同的检测需求,有助于提高驾驶的安全性。
-
公开(公告)号:CN117528085A
公开(公告)日:2024-02-06
申请号:CN202410020281.0
申请日:2024-01-08
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: H04N19/124 , H04N19/132 , H04N19/88 , H04N19/91 , G06T9/00 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明公开了一种基于智能特征聚类的视频压缩编码方法,包括以下步骤:步骤1、将视频进行预处理后利用深度学习模型对视频进行智能特征提取;步骤2、采用特征聚类算法对提取出的特征进行聚类,将相似或冗余的特征整合在一起,为后续编码提供更有效的数据结构;步骤3、对聚类后的特征集进行编码,通过视觉增强和数据压缩的联合制定来进行视频压缩;步骤4、在解码端,根据编码数据和聚类中心信息,恢复出原始的特征集;步骤5、利用深度学习模型的重建模块,根据解码后的特征集重建原始视频。本发明能够准确有效地进行特征提取和压缩编码,同时具有较高的压缩比和图像质量。
-
公开(公告)号:CN117612142B
公开(公告)日:2024-07-12
申请号:CN202311520633.0
申请日:2023-11-14
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: G06V20/59 , G06V10/764 , G06V10/774 , G06V10/80 , G06V40/16 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多任务联合模型的头部姿态与疲劳状态检测方法,包括以下步骤:在YOLOv6的基础上,设计基于聚集与分流机制的加强特征提取网络;在模型中增加融合大核注意力机制的头部姿态估计分支;对人脸数据集标注形成疲劳驾驶数据集;通过目标检测损失函数和头部姿态估计损失函数训练疲劳分神检测模型;将模型部署于车载终端设备,通过模型检测头部姿态和疲劳状态并输出信息;通过某一类别持续时间与设定阈值进行比较来判定是否处于疲劳状态或分神状态。本发明提高模型的泛化性能、鲁棒性、可靠性及检测精度、减少模型训练的时间和计算资源,提高驾驶员的安全性,减少驾驶中的疲劳分心行为,降低交通事故的发生率。
-
公开(公告)号:CN117528085B
公开(公告)日:2024-03-19
申请号:CN202410020281.0
申请日:2024-01-08
Applicant: 中国矿业大学 , 燕园安全科技(徐州)有限公司
IPC: H04N19/124 , H04N19/132 , H04N19/88 , H04N19/91 , G06T9/00 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明公开了一种基于智能特征聚类的视频压缩编码方法,包括以下步骤:步骤1、将视频进行预处理后利用深度学习模型对视频进行智能特征提取;步骤2、采用特征聚类算法对提取出的特征进行聚类,将相似或冗余的特征整合在一起,为后续编码提供更有效的数据结构;步骤3、对聚类后的特征集进行编码,通过视觉增强和数据压缩的联合制定来进行视频压缩;步骤4、在解码端,根据编码数据和聚类中心信息,恢复出原始的特征集;步骤5、利用深度学习模型的重建模块,根据解码后的特征集重建原始视频。本发明能够准确有效地进行特征提取和压缩编码,同时具有较高的压缩比和图像质量。
-
公开(公告)号:CN115512324B
公开(公告)日:2024-07-12
申请号:CN202211253152.3
申请日:2022-10-13
Applicant: 中国矿业大学
IPC: G06V20/56 , G06V10/82 , G06V20/70 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种基于边缘对称填充和大感受野的路面病害检测方法,包括:数据集准备,结合道路环境重新标注公共数据集,并添加灌缝和井盖两个辅助类别;神经网络搭建,用大核深度可分离卷积配合重参数化搭建具有更大有效感受野和更多形状偏置的骨干网络RepLKDarkNet,用空间可分离深度卷积以及改进的对称填充策略搭建对位置信息保留更多的加强特征提取网络XSepPAFPN,用目标跟踪模块优化重识别问题;嵌入式部署,将模型转化为TensorRT模型。本发明基于大感受野特征以及应用边缘对称填充策略的空间可分离深度卷积,在提高特征图的有效感受野的同时减少大卷积核计算量和参数量,并在一定程度弥补特征提取时的信息丢失,解决路面病害样式和形状提取不准确影响检测精度的问题。
-
公开(公告)号:CN115578719B
公开(公告)日:2024-05-17
申请号:CN202211253174.X
申请日:2022-10-13
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于YM_SSH的轻量级目标检测的疲劳状态检测方法,具体包括以下步骤:数据集准备,结合国内疲劳检测公共数据建立疲劳状态检测数据集;神经网络搭建,使用MobileViT代换YOLOv3的主干网络Darknet53,使用小尺寸卷积核代替大尺寸卷积核,搭建具有更大有效感受野的轻量级网络YM_SSH,使用改进的SSH网络增大模型感受野;减半网络通道数,将网络模型轻量化;嵌入式部署,将模型转化为TensorRT模型,提高模型在移动终端的推理速度。本发明基于轻量级目标检测网络以及可分离深度卷积,在扩大特征感受野的同时减少卷积核计算量和参数量,并且检测速度和精度与原网络模型几乎持平,解决了实时疲劳检测精确度低的问题。
-
公开(公告)号:CN117692652B
公开(公告)日:2024-04-26
申请号:CN202410155470.9
申请日:2024-02-04
Applicant: 中国矿业大学 , 江苏比特达信息技术有限公司
IPC: H04N19/189 , H04N19/20 , H04N19/65 , H04N19/85 , G06T9/00 , H04N19/182 , H04N19/17 , H04N19/625 , H04N19/63 , H04N23/11 , G06T5/70 , G06T5/40 , G06N3/0464 , G06N3/08
Abstract: 一种基于深度学习的可见光与红外视频融合编码方法,步骤包括采集同一场景下的可见光视频流和红外视频流;对采集的可见光视频流和红外视频流进行预处理,包括去噪、对比度增强操作,并采用生成对抗网络对视频进行编码;采用自适应编码损伤修复算法提升编码性能;通过融合编码算法对经编码损伤修复过的可见光视频和红外视频进行融合编码,生成融合视频流。实现了对不同模态视频流选择合适的预处理操作,减少了噪声的同时增强对比度,保持了视频更多的细节;通过在EDVR模型的框架中融入自适应损伤修复算法,增进了网络修复的效果,大大提高了可见光和红外视频数融合处理的效率以及质量,扩大了可见光与红外视频编码融合技术的适用范围。
-
公开(公告)号:CN115439835B
公开(公告)日:2024-07-23
申请号:CN202211258003.6
申请日:2022-10-13
Applicant: 中国矿业大学
Abstract: 本发明公开了一种改进YOLO‑PAI的实时接打电话行为检测方法,步骤如下:从视频监控平台截取照片制作数据集,添加手和手机两个标签类别,手的标注辅助判断人是否存在接打电话行为;搭建新型卷积神经网络,对于主干网络CSPDarknet53进行剪枝,在保证精度的同时减少参数量。利用使用k‑means聚类算法获得的9个锚点解决小型目标检测问题,更好的检测手机特征信息。增加第四个尺度的特征映射分支,扩大检测范围;部署嵌入式设备,使用TensorRT深度学习推理框架。通过提出的SRblock_body结构,提取图像特征,构建更深层次网络改善网络结构,提高分类和检测效果,在保证检测精度的同时减少模型大小和参数量,更好的移植到嵌入式设备中。
-
-
-
-
-
-
-
-
-