-
公开(公告)号:CN113177464A
公开(公告)日:2021-07-27
申请号:CN202110460163.8
申请日:2021-04-27
Abstract: 本发明公开了一种基于深度学习的端到端的多模态步态识别方法。本发明首先通过RGB视频帧提取步态外观特征(颜色纹理等),并且对RGB视频帧进行语义分割得到掩模,然后通过掩模提取步态掩模特征(轮廓等),最后对两类特征进行融合进行识别。本发明通过对GaitSet进行改进用于提取步态外观和掩模特征;通过简化的FCN在保证精度的前提下提升语义分割速度;将步态外观特征和掩模特征进行融合以获得更完整的信息表示。
-
公开(公告)号:CN112132828A
公开(公告)日:2020-12-25
申请号:CN202011099999.1
申请日:2020-10-15
Applicant: 浙江工商大学 , 浙江小芃科技有限公司
Abstract: 本发明涉及一种基于深度学习的薄膜瑕疵检测方法。该发明包括以下步骤:首先根据yolov5的卷积神经网络结构,在coco数据库上进行训练得到一个预训练网络;然后通过对所述的预训练网络进行微调,在薄膜数据库上学习一个新的网络模型,即目标网络;最后将目标网络模型加载到系统中,将相机采集的实时薄膜数据载入系统中进行检测。本发明主要针对薄膜瑕疵小,难以识别检测出,浅层特征重复利用,对浅层参数与特征金字塔简单相加操作。由于参数量没有增加,只是增加了特征相加操作,在与原模型的检测速度相当情况下,使得对薄膜上的小瑕疵检测精准度更高。
-
公开(公告)号:CN111539359A
公开(公告)日:2020-08-14
申请号:CN202010350261.1
申请日:2020-04-28
Applicant: 浙江工商大学 , 杭州芃视科技有限公司
Abstract: 本发明公开了一种基于深度学习的违章停车检测方法。本发明首先读取视频帧进行检测;然后检测出的汽车检测框计算中心点;再判断中心点是否在禁停区,如在禁停区则判断停车时间是否超设定值,如超设定值则进行提醒。本发明通过对yolo-tiny网络结构的简化修改,使得不损失精度的前提下检测单类目标速度更加快速;通过对IOU的二值化,使得计算速度得到显著提升。通过a-IOU计算,更加简便而精准地判定违章停车;通过检测框的center与集合C中存储的center对比,简单地解决了跟踪计时问题。
-
公开(公告)号:CN110070587A
公开(公告)日:2019-07-30
申请号:CN201910162468.3
申请日:2019-03-05
Applicant: 浙江工商大学
Inventor: 王慧燕
Abstract: 一种基于条件级联对抗生成网络的行人图像生成方法,包括以下步骤:步骤1构建Stack Conditional Generative Adversarial Network深度神经网络并训练;步骤2利用SCGAN网络进行行人图像生成,过程包括:首先生成100维度的高斯分布噪声,然后对需要生成的行人属性编码,得到条件控制编码。串联高斯噪声与条件控制编码输入网络,取出各级生成器的输出,得到初步生成的图像。最后利用双线性插值算法将生成的图像长宽比例调整为1:2.5得到最终的生成结果。本发明实现了利用条件控制对抗生成网络生成具有特定行人属性的图像,提出的条件编码方式使得条件控制对抗生成网络的训练过程更加简易。
-
公开(公告)号:CN106097391B
公开(公告)日:2018-11-16
申请号:CN201610420557.X
申请日:2016-06-13
Applicant: 浙江工商大学
Abstract: 本发明公开了一种基于深度神经网络的识别辅助的多目标跟踪方法。多目标跟踪是指在摄像机捕获的画面中对感兴趣的多个目标不断的跟踪。现有的多行人跟踪方法在当目标被完全遮挡或者从视野中消失极易导致跟踪失败。本发明方法将多目标跟踪问题转化为寻找帧间检测到的目标之间对应关系问题,在目标消失再现后,采用基于深度学习网络实现有效的轨迹恢复,改善长距离跟踪效果。本发明具有较好的鲁棒性,非常适合应用在安防监控领域,对协助公共场所的维护治安有非常大的实际价值。
-
公开(公告)号:CN106060511B
公开(公告)日:2018-11-16
申请号:CN201610437916.2
申请日:2016-06-17
Applicant: 浙江工商大学
IPC: H04N13/156 , H04N13/128
Abstract: 本发明提供了一种基于深度图的立体视频补全方法及系统,其中,方法包括:获取源视频、与源视频对应的源视频深度图视频序列以及预设的目标视频的参数,源视频与目标视频之间存在水平位移;根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;计算目标视频序列中的每帧图像之间的相对运动参数,并根据相对运动参数将当前帧内的空洞区域投影到相邻帧,利用相邻帧内已有的信息对当前帧内的空洞区域进行填充。本发明在能够对在合成目标视频的过程中产生的空洞自动进行填充,避免了人工补全操作,大大降低了立体视频的制作成本,填充精度高,方法简单,便于实现。
-
公开(公告)号:CN106157307B
公开(公告)日:2018-09-11
申请号:CN201610510552.6
申请日:2016-06-27
Applicant: 浙江工商大学
IPC: G06T7/50
Abstract: 本发明公开了一种基于多尺度CNN和连续CRF的单目图像深度估计方法,其利用CRF模型根据DCNN的输出深度图计算单点势能,根据输入RGB图像计算成对稀疏势能,最后用MAP(最大化后验概率)算法推导出优化的深度图。本发明结合了多尺度CNN和连续CRF优化思想,不仅能够以较高的精确度估计出深度图,又能使得到的深度图轮廓清晰;本发明所估计的深度有比较高的分辨率,而且所得到的深度图能保留场景中所有对象的深度细节信息,具有更好的视觉效果。
-
公开(公告)号:CN106060511A
公开(公告)日:2016-10-26
申请号:CN201610437916.2
申请日:2016-06-17
Applicant: 浙江工商大学
IPC: H04N13/00
CPC classification number: H04N13/156 , H04N13/128
Abstract: 本发明提供了一种基于深度图的立体视频补全方法及系统,其中,方法包括:获取源视频、与源视频对应的源视频深度图视频序列以及预设的目标视频的参数,源视频与目标视频之间存在水平位移;根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;计算目标视频序列中的每帧图像之间的相对运动参数,并根据相对运动参数将当前帧内的空洞区域投影到相邻帧,利用相邻帧内已有的信息对当前帧内的空洞区域进行填充。本发明在能够对在合成目标视频的过程中产生的空洞自动进行填充,避免了人工补全操作,大大降低了立体视频的制作成本,填充精度高,方法简单,便于实现。
-
公开(公告)号:CN103336971B
公开(公告)日:2016-08-10
申请号:CN201310284015.0
申请日:2013-07-08
Applicant: 浙江工商大学
Abstract: 本发明公开了一种基于多特征融合与增量学习的多摄像机间的目标匹配方法。本发明中的目标的特征模型是指提取目标的SIFT特征,将该特征量化到已创建好的分层词汇树上,形成分层词汇树直方图特征,提取颜色直方图特征,根据两种直方图特征得到初步融合特征,对融合特征实施核PCA降维,提取出非线性融合特征。目标的分类识别是将多目标非线性融合特征送入多类SVM分类器中进行分类识别。目标模型的在线更新是通过对多类SVM分类器增量学习完成的,当摄像机视野域内出现新目标以及目标的外观形态发生较大变化时,目标模型通过增量SVM学习不断被更新。本发明融合了目标的词汇树直方图特征和颜色直方图特征,显著提高了目标的识别率。
-
-
-
-
-
-
-
-