-
公开(公告)号:CN114677633B
公开(公告)日:2022-12-02
申请号:CN202210579638.X
申请日:2022-05-26
IPC: G06V20/40 , G06V20/52 , G06V40/10 , G06V10/82 , G06V10/80 , G06V10/74 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于多部件特征融合的行人检测多目标跟踪系统及方法,首先,获取行人图像数据集并进行行人多部件标注;其次,构造并训练基于多部件特征融合的行人检测多目标跟踪系统,系统包括沙漏模块、目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块;然后,基于所述训练得到的模型进行推理获取单帧行人检测结果及多帧的行人融合特征;其次,计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度;最终,利用所述相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。本方法耗时较低,且对遮挡问题鲁棒性较好。
-
公开(公告)号:CN113297906B
公开(公告)日:2022-09-09
申请号:CN202110423900.7
申请日:2021-04-20
Abstract: 本发明公开了一种基于知识蒸馏的行人重识别模型压缩方法及评价方法,压缩方法包括如下步骤:S1:预训练行人重识别教师模型;S2:构建行人重识别学生模型;S3:构建低阶状态蒸馏损失和高阶结构蒸馏损失,将教师模型的知识迁移到学生模型,联合优化行人重识别任务损失和蒸馏损失进行训练;评价方法还包括如下步骤:S4:将底库测试集输入训练好的学生模型,获得底库行人特征;S5:将查询测试集输入训练好的学生模型,获得行人特征,与底库行人特征进行相似度计算,经度量排序找到与之具有相同身份的底库行人图片,计算时间效率和性能准确度。
-
公开(公告)号:CN113763471A
公开(公告)日:2021-12-07
申请号:CN202110997123.7
申请日:2021-08-27
Abstract: 本发明公开了一种基于视觉的弹孔检测方法及系统,方法包括:S1,获取打靶弹孔图像数据集并进行弹孔标注;S2,构造一种卷积特征与纹理特征深度融合的超轻量化网络,并基于弹孔图像数据,进行模型训练得到检测模型;S3,基于训练得到的检测模型进行推理,获取单帧弹孔检测结果;S4,基于多帧检测结果,构建当前帧的弹孔积分图;S5,基于当前帧弹孔积分图与前一帧的弹孔积分图,进行匹配和帧差,获取当前帧的新增弹孔;系统包括:聚焦层、嵌套瓶颈层、卷积层,以及由单尺度目标回归子网络、纹理特征提取单元、特征融合与优选模块构成的特征融合与单尺度目标回归模块;本发明降低了资源消耗,且检测准确度、鲁棒性好。
-
公开(公告)号:CN113297906A
公开(公告)日:2021-08-24
申请号:CN202110423900.7
申请日:2021-04-20
Abstract: 本发明公开了一种基于知识蒸馏的行人重识别模型压缩方法及评价方法,压缩方法包括如下步骤:S1:预训练行人重识别教师模型;S2:构建行人重识别学生模型;S3:构建低阶状态蒸馏损失和高阶结构蒸馏损失,将教师模型的知识迁移到学生模型,联合优化行人重识别任务损失和蒸馏损失进行训练;评价方法还包括如下步骤:S4:将底库测试集输入训练好的学生模型,获得底库行人特征;S5:将查询测试集输入训练好的学生模型,获得行人特征,与底库行人特征进行相似度计算,经度量排序找到与之具有相同身份的底库行人图片,计算时间效率和性能准确度。
-
公开(公告)号:CN113763471B
公开(公告)日:2024-11-08
申请号:CN202110997123.7
申请日:2021-08-27
IPC: G06T7/73 , G06T7/45 , G06T7/33 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于视觉的弹孔检测方法及系统,方法包括:S1,获取打靶弹孔图像数据集并进行弹孔标注;S2,构造一种卷积特征与纹理特征深度融合的超轻量化网络,并基于弹孔图像数据,进行模型训练得到检测模型;S3,基于训练得到的检测模型进行推理,获取单帧弹孔检测结果;S4,基于多帧检测结果,构建当前帧的弹孔积分图;S5,基于当前帧弹孔积分图与前一帧的弹孔积分图,进行匹配和帧差,获取当前帧的新增弹孔;系统包括:聚焦层、嵌套瓶颈层、卷积层,以及由单尺度目标回归子网络、纹理特征提取单元、特征融合与优选模块构成的特征融合与单尺度目标回归模块;本发明降低了资源消耗,且检测准确度、鲁棒性好。
-
公开(公告)号:CN114998999A
公开(公告)日:2022-09-02
申请号:CN202210856428.0
申请日:2022-07-21
Abstract: 本发明公开一种基于多帧输入与轨迹平滑的多目标跟踪方法和装置,方法包括:步骤S1:获取行人视频数据集并进行行人坐标以及行人轨迹的标注,并生成片段型轨迹数据;步骤S2:构造并训练基于多帧输入与轨迹平滑的行人多目标跟踪网络模型;步骤S3:基于训练得到的行人多目标跟踪网络模型进行推理,获取当前帧行人目标检测与特征提取结果以及其前几帧的行人目标检测与特征提取结果,即获取得到多帧图像目标的坐标及外观特征;步骤S4:利用多帧图像目标的坐标及外观特征进行最短特征距离匹配,并利用轨迹曲率平滑函数进行轨迹平滑,最终得到当前帧的轨迹。本发明具有耗时低,且对同类目标的遮挡问题鲁棒性较好的优点。
-
公开(公告)号:CN114677633A
公开(公告)日:2022-06-28
申请号:CN202210579638.X
申请日:2022-05-26
IPC: G06V20/40 , G06V20/52 , G06V40/10 , G06V10/82 , G06V10/80 , G06V10/74 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于多部件特征融合的行人检测多目标跟踪系统及方法,首先,获取行人图像数据集并进行行人多部件标注;其次,构造并训练基于多部件特征融合的行人检测多目标跟踪系统,系统包括沙漏模块、目标尺寸回归模块、目标中心点偏移回归模块、目标中心点热度图模块和多部件特征融合模块;然后,基于所述训练得到的模型进行推理获取单帧行人检测结果及多帧的行人融合特征;其次,计算当前帧检测得到的行人特征与前一帧轨迹的融合特征的相似度;最终,利用所述相似度矩阵进行数据关联,生成当前帧的行人轨迹,并更新轨迹的特征。本方法耗时较低,且对遮挡问题鲁棒性较好。
-
公开(公告)号:CN114998999B
公开(公告)日:2022-12-06
申请号:CN202210856428.0
申请日:2022-07-21
Abstract: 本发明公开一种基于多帧输入与轨迹平滑的多目标跟踪方法和装置,方法包括:步骤S1:获取行人视频数据集并进行行人坐标以及行人轨迹的标注,并生成片段型轨迹数据;步骤S2:构造并训练基于多帧输入与轨迹平滑的行人多目标跟踪网络模型;步骤S3:基于训练得到的行人多目标跟踪网络模型进行推理,获取当前帧行人目标检测与特征提取结果以及其前几帧的行人目标检测与特征提取结果,即获取得到多帧图像目标的坐标及外观特征;步骤S4:利用多帧图像目标的坐标及外观特征进行最短特征距离匹配,并利用轨迹曲率平滑函数进行轨迹平滑,最终得到当前帧的轨迹。本发明具有耗时低,且对同类目标的遮挡问题鲁棒性较好的优点。
-
公开(公告)号:CN112257683A
公开(公告)日:2021-01-22
申请号:CN202011417659.9
申请日:2020-12-07
Applicant: 之江实验室
Abstract: 本发明公开了一种面向车辆运行轨迹监测的跨镜追踪方法,该方法包括采用生成对抗网络扩充车辆视频数据集,并在扩充后的数据集上训练基于轻量化卷积神经网络的车辆检测模型;将车辆检测模型部署到所有摄像头上,并创建摄像头间的位置关联字典;采用车辆检测模型提取摄像头中拍摄到的车辆的表观特征及在镜头内的连续位置,根据车辆的移动方向预测出车辆可能出现的下一组摄像头;将车辆的表观特征广播至下一组摄像头中,并根据表观特征在下一组摄像头中对车辆进行追踪,最终完成车辆的跨镜追踪。本发明所采用的跨镜追踪方法,能够实现对车辆的运行轨迹进行实时监测,当发现被监测车辆脱离预设路线时发出预警,可以协助监管人员快速排查被监测车辆。
-
公开(公告)号:CN111507317A
公开(公告)日:2020-08-07
申请号:CN202010613767.7
申请日:2020-06-30
Applicant: 之江实验室
Abstract: 本发明公开了一种基于视觉的旋转设备作业手套佩戴检测方法及系统,包括:获取生产车间中实时生成的监控视频图像,在监控视频图像中绘制凸多边形规则框,使得整个旋转设备落于规则框内;基于人体目标检测神经网络模型对监控视频图像进行人体目标检测,获得目标人体;基于人体骨骼关键点检测神经网络模型对目标人体进行人体关键点检测,获得处于规则框内的目标人体的双手关键点;对双手关键点进行区域分割,得到感兴趣区域,并对感兴趣区域进行初始分类;对初始分类后的感兴趣区域进行跟踪,并通过联合投票算法得到感兴趣区域的最终分类结果。本发明可以降低漏检,提高手套检测及分类的准确率,并通过多线程流水线处理模式降低整个处理过程的耗时。
-
-
-
-
-
-
-
-
-