-
公开(公告)号:CN119851312A
公开(公告)日:2025-04-18
申请号:CN202411936792.3
申请日:2024-12-26
Applicant: 上海网达软件股份有限公司
IPC: G06V40/10 , G06V20/52 , G06V10/82 , G06V10/774
Abstract: 本发明涉及计算机视觉安防技术领域,公开了一种考虑头部关键点位置安全帽规范佩戴识别方法及系统,方法包括:构建人体检测模型和规范佩戴安全帽分类模型并进行训练;采集监控视频,按照特定时间间隔对视频流进行抽帧得到视频帧,使用训练好的人体检测模型定位所述视频帧中的人体输出人体图像;通过人体关键点识别算法对每个人体图像进行推理,定位人体的若干关键点位置,取其中头部区域的关键点之间的相互位置判断头部偏转姿态,并根据头部区域的关键点剪裁头部区域图像;将所述头部区域图像输入所述规范佩戴安全帽分类模型进行推理识别,通过头部关键点识别判断出头部姿态,通过分类模型判断安全帽是否规范佩戴,具备较高的泛化能力与识别精度。
-
公开(公告)号:CN118038435A
公开(公告)日:2024-05-14
申请号:CN202410191374.X
申请日:2024-02-21
Applicant: 上海网达软件股份有限公司
Abstract: 本发明涉及图像处理和目标识别定位领域,尤其涉及一种基于YOLOv8改进的车牌检测算法,包括步骤S1,准备并整合车牌数据集并进行数据预处理操作后,将其分配为训练集和测试集;步骤S2,构建引入车牌顶角关键点检测、增加关键点空间约束损失以及车牌边界框使用WIOU损失函数的YOLOv8改进模型,通过训练集进行训练迭代,调整YOLOv8改进模型参数;步骤S3、将测试集对训练后的所述YOLOv8改进模型进行验证,输出验证结果。本发明算法通过整合顶角关键点检测与车牌检测框的相互约束机制,在提升车牌检出率的同时,也提高下游的车牌识别任务字符识别率。此外,优化边界框回归损失,在降低高质量边界框竞争力的前提下,减少低质量边界框产生有害梯度,提高模型的整体检测性能。
-
公开(公告)号:CN119763004A
公开(公告)日:2025-04-04
申请号:CN202411631918.6
申请日:2024-11-15
Applicant: 上海国际港务(集团)股份有限公司 , 上港集团物流有限公司浦东分公司 , 上海网达软件股份有限公司
IPC: G06V20/40 , G06V10/764 , G06V10/82 , G06V40/10 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种基于视频分类的佩戴肩闪灯识别方法及系统,获取视频流并获取所述视频流每帧数据中人体的位置坐标;将每帧数据中人体的位置坐标输入追踪器得到每个人的位置坐标信息;持续记录每帧视频帧人体位置坐标信息以识别每个人的移动方向并判断其人体朝向;将每个人两种相反移动方向各自的连续N张人体截图输入视频分类模型以分别获取每个朝向的分类结果,当两个方向识别的分类结果均为未佩戴肩闪灯则触发告警。通过连续帧识别作业人员是否佩戴肩闪灯,捕捉到肩闪灯在时间上的动态变化特征,视频分类模型可以实现自动化监控,减少人工干预,提高监督效率。
-
公开(公告)号:CN116886959A
公开(公告)日:2023-10-13
申请号:CN202311021447.2
申请日:2023-08-15
Applicant: 上海网达软件股份有限公司
IPC: H04N21/2343 , H04N21/4402
Abstract: 本发明涉及视频处理和视频画质增强领域,提供了一种高效实时光流法深度学习视频插帧方法,使用I FNet模型作为中间流网络,将输入图像t0时刻帧和t1时刻帧输入I FNet模型的三个模块中进行4倍、2倍、1倍降采样提取特征,采取从粗到细的策略首先进行4倍降采样特区特征,按照正向顺序和反向顺序输入分别得到正反向光流和正反向掩膜,将正反向光流和正反向掩膜进行融合,再使用融合光流对输入原图像进行warp i ng操作,最后根据融合掩膜对正反向光流生成的图像做加权操作,使得图像像素根据光流产生偏移运动到指定位置,得到插帧图像,实现根据不同配置同时输出多个时间片插帧,效率显著提升。
-
公开(公告)号:CN117853973A
公开(公告)日:2024-04-09
申请号:CN202311845482.6
申请日:2023-12-28
Applicant: 上海网达软件股份有限公司
IPC: G06V20/40 , G06V20/52 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及图像处理技术领域,尤其涉及一种基于YOLOv5的安全帽检测方法,包括以下步骤:S1:根据安全帽图片建立安全帽数据集,根据YOLOv5的数据格式转化为数据集;S2:训练集根据预训练模型权重通过第一YOLOv5神经网络模型进行训练以得到第一训练模型;S3:测试集根据第一训练模型验证模型效果,调整第一训练参数以得到达到最优性能的第二训练模型,并保留训练模型权重;S4:监控视频输入到第二训练模型进行检测,得到安全帽检测结果和置信度概率。本发明引入了Transformer模块,对全局语义特征提取能力增强;优化特征融合模块为Weighted BiFPN,避免非相邻层特征不能直接交互导致的信息丢失问题,整体增强网络的表征能力;使用带困难样本挖局的损失函数更加鲁棒和具有泛化性。
-
公开(公告)号:CN118069878A
公开(公告)日:2024-05-24
申请号:CN202410126965.9
申请日:2024-01-30
Applicant: 上海网达软件股份有限公司
IPC: G06F16/583 , G06V40/10 , G06V20/70 , G06V10/25 , G06V10/52 , G06V10/74 , G06V10/764 , G06V10/774 , G06V10/778 , G06V10/82 , G06V10/80 , G06N3/045 , G06N3/048 , G06N3/0464 , G06N3/08
Abstract: 本说明涉及图像识别检索技术领域,公开了一种多尺度多细粒度的行人检索模型优化方法,包括:S1:输入大量不同人体的图片并进行标注,来构建人体检索数据集;S2:使用EfficientNetV2M模型作为所述行人检索模型的主要网络模型,并对所述模型作出修改,然后输入所述人体检索数据集来训练修改后的所述EfficientNetV2M模型;S3:训练过程中使用数据增强遮挡明显的人体特征,并使用UCE loss训练所述模型直至收敛。通过使用更强力的特征提取网络、网络主动学习细粒度特征、使网络学习每类与其他类的区别等优化方案,优化后的模型相比于现有的行人检索模型在准确率上得到了很大的提升。
-
-
-
-
-