一种基于改进的YOLOv5的商品种类识别及裁剪方法

    公开(公告)号:CN116363425A

    公开(公告)日:2023-06-30

    申请号:CN202310309561.9

    申请日:2023-03-27

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于改进的YOLOv5的商品种类识别及裁剪方法,属于深度学习中目标识别技术领域。解决了在商品检测过中出现检测不准及需要进行细粒度图像识别时大量无关背景导致检测精度低的技术问题。其技术方案为:包括以下步骤:S1、根据商品信息对所有图像进行数据标注;S2、搭建改进后的YOLOv5的目标检测模型;S3、得到改进后的最好的商品类比检测模型;S4、利用在步骤S3中训练得到的商品类别检测模型进行商品的类别检测。本发明的有益效果为:通过改进后的YOLOv5进行商品类别识别并裁剪出商品图片,以便需要进一步检测时能将裁剪后的图片送入双线性卷积神经网络进行细粒度识别,从而实现提升商品类别识别精度。

    一种基于改进的YOLOv8的安全帽规范佩戴检测方法

    公开(公告)号:CN119580177A

    公开(公告)日:2025-03-07

    申请号:CN202411383325.2

    申请日:2024-09-30

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于改进的YOLOv8的安全帽规范佩戴检测方法,属于计算机视觉目标检测技术领域。解决了现有检测算法无法判断安全帽是否规范佩戴的技术问题。其技术方案为:包括以下步骤:S1、样本数据采集;S2、采用可变性卷积Deformable ConvolutionV2替换传统卷积;S3、基于MPCA的DCNV2改进;S4、改进的多尺度特征融合模块;S5、利用安全帽规范佩戴数据集对改进的YOLOv8网络模型进行训练,得到训练后的模型。本发明的有益效果为:本发明方法不仅帮助管理人员对作业现场的安全帽佩戴情况进行有效监管,还为基于深度学习的目标检测技术在安全帽检测领域提供了新的思路和范例。

    一种基于背景建模和目标检测的厨房老鼠检测方法

    公开(公告)号:CN116453043A

    公开(公告)日:2023-07-18

    申请号:CN202310244607.3

    申请日:2023-03-14

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于背景建模和目标检测的厨房老鼠检测方法,属于计算机视觉技术领域。解决了存在有干扰因素的复杂背景下的老鼠检测精度低的问题。其技术方案为:包括以下步骤:S1、样本数据采集;S2、建立背景模型;S3、提取当前帧图像中所有的前景运动目标的目标框;S4、对目标框建立混合高斯分布模型;S5、老鼠检测;S6、输出目标检测结果。本发明的有益效果为:该方法得出一种老鼠检测的通用模型,可以适用在餐饮后厨、食品加工等多种场景下,实现老鼠检测的智能化,减少人工监管所耗费的时间和精力,一定程度上解决老鼠对食品及商品的危害。

    一种轻量级的驾驶员分心行为检测方法

    公开(公告)号:CN119904845A

    公开(公告)日:2025-04-29

    申请号:CN202411806509.5

    申请日:2024-12-10

    Applicant: 南通大学

    Abstract: 本发明提供了一种轻量级的驾驶员分心行为检测方法,属于计算机视觉技术领域。解决了分心驾驶检测算法模型结构复杂,参数量大,以及模型轻量化与检测精度之间的不平衡技术问题。其技术方案为:包括以下步骤:S1:采集分心驾驶行为数据图片,构建分心驾驶行为数据集;S2:以YOLOv8n模型为基础构建轻量级的分心驾驶检测网络ASU‑YOLO;S3:使用制作的分心驾驶行为数据集对构建的ASU‑YOLO网络模型进行训练,得到轻量级的分心驾驶检测模型;S4:通过训练好的模型对分心驾驶行为进行检测。本发明的有益效果为:本发明在减少算法的参数量与计算量的同时提高模型的检测精度,实现模型的轻量化,满足实时检测的需求。

    一种基于深度学习的自助售货机商品识别方法

    公开(公告)号:CN115880676B

    公开(公告)日:2024-04-09

    申请号:CN202211649911.8

    申请日:2022-12-21

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于深度学习的自助售货机商品识别方法,属于目标识别技术领域。解决了现有的自助售货机结构复杂、故障率高、商品种类受限制和成本高的问题。其技术方案为:包括以下步骤:S1、采集真实场景下物品数据形成商品检测数据集,并对训练集图片中的商品进行标注;S2、基于yolov5和BFCNN搭建网络框架;S3、根据搭建好的yolov5和BFCNN网络框架分别训练商品数据集;S4、使用训练好的网络验证识别商品,得到识别结果。本发明的有益效果为:本发明减小了自助售货机的占地面积以及成本,消除了售货机的商品种类限制,提高了检测速率和精度。

    一种基于改进的YOLOv5的建筑工地安全帽检测方法

    公开(公告)号:CN117423062A

    公开(公告)日:2024-01-19

    申请号:CN202311509438.8

    申请日:2023-11-13

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于改进的YOLOv5的建筑工地安全帽检测方法,属于计算机视觉目标检测技术领域。解决了目前检测精度低、小目标误检漏检、遮挡目标检测难度较大的技术问题。其技术方案为:包括以下步骤:S1、样本数据采集;S2、在Neck网络中使用AFPN结构代替FPN结构;S3、采用Slide Loss替换BCE‑loss;S4、边界框回归损失函数替换;S5、得到工人是否佩戴安全帽的结果。本发明的有益效果为:通过改进YOLOv5网络结构,分配更多的注意力给难样本,提取更多目标的特征信息,优化回归损失函数来提升检测精度和速度,减少建筑工地危险事故的发生。

    一种复杂背景下的反光背心检测方法

    公开(公告)号:CN118351481A

    公开(公告)日:2024-07-16

    申请号:CN202410427913.5

    申请日:2024-04-10

    Applicant: 南通大学

    Abstract: 本发明提供了一种复杂背景下的反光背心检测方法,属于计算机视觉目标检测技术领域。解决了目前建筑工地目标密集、背景错综复杂的情况下检测精度低的技术问题。其技术方案为:包括以下步骤:S1、样本数据采集;S2、引入MSDA注意力模块;S3、替换检测头为DC‑Dyhead;S4、模型剪枝获得轻量化模型;S5、将待检测图像和视频输入训练好的模型中进行推理预测,得到工人是否规范穿着反光背心的结果。本发明的有益效果为:本发明对模型进行压缩,提高检测精度和推理速度,更好的保障了建筑工地工人的安全,减少事故发生。

    一种低光环境下的疲劳驾驶检测方法

    公开(公告)号:CN118334630A

    公开(公告)日:2024-07-12

    申请号:CN202410365820.4

    申请日:2024-03-28

    Applicant: 南通大学

    Abstract: 本发明提供了一种低光环境下的疲劳驾驶检测方法,属于计算机视觉技术领域。解决了在低光环境下对疲劳驾驶检测性能低的技术问题。其技术方案为:包括以下步骤:S1:先获得数据集,DARK FACE数据集、WFLW数据集;S2:构建低光增强网络Illumination Adaptive Transformer;S3:对YOLOv8目标检测网络进行改进;S4:对PFLD网络进行改进,构建人脸关键点检测模型;S5:建立疲劳判断指标;S6:通过疲劳判断指标对驾驶员的疲劳状态判断。本发明的有益效果为:提高模型在低光下的检测能力,减少在夜晚对疲劳驾驶检测的漏检和误检,使模型更具有鲁棒性。

    一种基于改进的YOLOv5s的分心驾驶行为检测方法

    公开(公告)号:CN117831005A

    公开(公告)日:2024-04-05

    申请号:CN202311418793.4

    申请日:2023-10-30

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于改进的YOLOv5s的分心驾驶行为检测方法,属于计算机视觉技术领域。解决了驾驶行为中抽烟、喝水及接打电话行为检测精度低的技术问题。其技术方案为:包括以下步骤:S1:获取分心驾驶行为数据图片,得到对应的分心驾驶行为数据集,并将该数据集按照9:1的比例分为训练集和验证集;S2:构建分心驾驶行为检测模型;S3:使用分心驾驶行为数据集对改进后的YOLOv5s模型进行训练;S4:通过训练好的模型对分心驾驶行为进行检测。本发明的有益效果为:本发明增强对烟头等小目标物体的检测能力,以及模型的特征融合能力,提高模型的检测精度。

    一种基于双目视觉的杂草定位方法

    公开(公告)号:CN116721149A

    公开(公告)日:2023-09-08

    申请号:CN202310724496.6

    申请日:2023-06-16

    Applicant: 南通大学

    Abstract: 本发明提供了一种基于双目视觉的杂草定位方法,属于计算机视觉技术领域。解决了农业领域中准确、高效的定位杂草的技术问题。其技术方案为:包括以下步骤:S1、双目相机标定,获取相机的详细参数;S2、双目相机立体校正;S3、立体匹配;S4、得出杂草中心点的三维坐标。本发明的有益效果为:本发明利用双目视觉技术构建杂草定位算法,实现杂草的精准定位,为激光除草机器人提供可以实际应用的精准除草方案。

Patent Agency Ranking