-
公开(公告)号:CN103985113A
公开(公告)日:2014-08-13
申请号:CN201410089643.8
申请日:2014-03-12
Applicant: 浙江工商大学
Abstract: 本发明提供一种舌像分割方法,包括对获取到的表征舌体信息的舌像进行预处理,得到均衡化的灰度图像。去除得到的均衡化的灰度图像的背景,得到基础舌像;和计算得到的均衡化的灰度图像的熵值。根据熵值对基础舌像内的像素进行熵聚类,提取熵值满足设定值的区域,形成目标舌像。抽取目标舌像的骨架。在骨架上选取至少两对控制点,计算上述控制点对之间的最短测地路径,依次连接所有最短测地路径,得到舌像轮廓。本发明提供的舌像分割方法,利用局部熵特征增强舌像边缘等底层特征,且通过抽取最短测地距离自动获取针对每个特定舌体的模版,大大提高了分割的精度,具有更高的鲁棒性。
-
公开(公告)号:CN103336971A
公开(公告)日:2013-10-02
申请号:CN201310284015.0
申请日:2013-07-08
Applicant: 浙江工商大学
Abstract: 本发明公开了一种基于多特征融合与增量学习的多摄像机间的目标匹配方法。本发明中的目标的特征模型是指提取目标的SIFT特征,将该特征量化到已创建好的分层词汇树上,形成分层词汇树直方图特征,提取颜色直方图特征,根据两种直方图特征得到初步融合特征,对融合特征实施核PCA降维,提取出非线性融合特征。目标的分类识别是将多目标非线性融合特征送入多类SVM分类器中进行分类识别。目标模型的在线更新是通过对多类SVM分类器增量学习完成的,当摄像机视野域内出现新目标以及目标的外观形态发生较大变化时,目标模型通过增量SVM学习不断被更新。本发明融合了目标的词汇树直方图特征和颜色直方图特征,显著提高了目标的识别率。
-
公开(公告)号:CN114627292B
公开(公告)日:2024-05-14
申请号:CN202210227869.4
申请日:2022-03-08
Applicant: 浙江工商大学 , 杭州小芃科技有限公司
IPC: G06V10/26 , G06V10/771 , G06N3/0464 , G06V10/82
Abstract: 本申请涉及一种工业遮挡目标检测方法,在三次连续的WiggleTransformer Block操作中,在执行每次Wiggle Transformer Block操作中的窗口切分步骤时采用不同类型的W‑MSA模块,WWL‑MSA模块和WWR‑MSA模块进行窗口切分,并在每个切分后形成的窗口中各自进行attention计算。不同的MSA模块可以提取不一样的窗口位置,实现了更多的跨窗口之间的连接,增加了窗口与窗口之间的交互,保留了图片边缘信息交互的必要性,提高了全局性和鲁棒性。在每个窗口中各自进行attention计算,这样做的好处是既能引入CNN卷积操作的局限性,另一方面能节省计算量,以满足工业应用的需求。本申请既可以减少遮挡物对检测目标的影响,又可以多层次增加细节特征,以提高遮挡目标检测的准确率。
-
公开(公告)号:CN113011396B
公开(公告)日:2024-02-09
申请号:CN202110460610.X
申请日:2021-04-27
IPC: G06V20/40 , G06V40/10 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/084 , G06T7/13 , G06T7/181
Abstract: 本发明公开了一种基于深度学习级联特征融合的步态识别方法。本发明首先读取视频帧,通过局部特征提取分支进行局部特征提取,同时通过全局特征提取分支提取整体的轮廓特征,然后对两类特征进行融合进行后续识别。本发明使用改进的GaitSet网络作为局部特征提取分支对图像进行切片处理提取局部特征;通过改进的GaitSet网络得到全局特征提取分支,使网络更关注于图像的整体轮廓特征;通过精心设计的特征融合分支对两类特征进行融合使得整体框架得到更完整的特征表示。本发明具有较好的通用性,可适用于其他步态识别模型。
-
公开(公告)号:CN113177464B
公开(公告)日:2023-12-01
申请号:CN202110460163.8
申请日:2021-04-27
IPC: G06V40/20 , G06V20/40 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/084 , G06N5/046 , G06T7/11
Abstract: 本发明公开了一种基于深度学习的端到端的多模态步态识别方法。本发明首先通过RGB视频帧提取步态外观特征(颜色纹理等),并且对RGB视频帧进行语义分割得到掩模,然后通过掩模提取步态掩模特征(轮廓等),最后对两类特征进行融合进行识别。本发明通过对GaitSet进行改进用于提取步态外观和掩模特征;通过简化的FCN在保证精度的前提下提升语义分割速度;将步态外观特征和掩模特征进行融合以获得更完整的信息表示。
-
公开(公告)号:CN111461169B
公开(公告)日:2023-04-07
申请号:CN202010142676.X
申请日:2020-03-04
Applicant: 浙江工商大学
IPC: G06V40/10 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于正反卷积和多层分支深度网络的行人属性识别方法,首先通过mix‑up数据增强方法对数据进行处理,提高训练数据的鲁棒性,然后提出了正反卷积模块,即将瓶颈网络(bottleneck)中的1×1卷积修改为3×3卷积,3×3卷积修改为3×3反卷积,用于需要改变通道数的特征提取,能够提高网络的分类精度,并将其应用于DenseNet网络中bottleneck结构的改造,用于构建基于多层分支的多任务行人属性识别网络。本发明方法可以提取到更丰富的特征,显著提高了分类精度,尤其是在小数据集的情况下,能够在尺度较小的属性上实现分类效果的提升。
-
公开(公告)号:CN110070587B
公开(公告)日:2023-02-10
申请号:CN201910162468.3
申请日:2019-03-05
Applicant: 浙江工商大学
Inventor: 王慧燕
Abstract: 一种基于条件级联对抗生成网络的行人图像生成方法,包括以下步骤:步骤1构建Stack Conditional Generative Adversarial Network深度神经网络并训练;步骤2利用SCGAN网络进行行人图像生成,过程包括:首先生成100维度的高斯分布噪声,然后对需要生成的行人属性编码,得到条件控制编码。串联高斯噪声与条件控制编码输入网络,取出各级生成器的输出,得到初步生成的图像。最后利用双线性插值算法将生成的图像长宽比例调整为1:2.5得到最终的生成结果。本发明实现了利用条件控制对抗生成网络生成具有特定行人属性的图像,提出的条件编码方式使得条件控制对抗生成网络的训练过程更加简易。
-
公开(公告)号:CN113284123B
公开(公告)日:2022-07-12
申请号:CN202110609602.7
申请日:2021-06-01
Applicant: 浙江工商大学 , 浙江小芃科技有限公司
Abstract: 本发明公开了一种基于旋转目标和改进注意力机制的薄膜划痕瑕疵检测方法。本发明首先读取薄膜图像,然后将图像输入到网络模型中进行推理,通过网络结构推理出薄膜图像中的瑕疵并进行标注。本发明通过对CenterNet进行小目标以及旋转目标检测的改进,对主干网络检测小目标进行改进,向网络结构中加入注意力机制,增加对瑕疵目标的角度预测分支,在不影响实时检测速度的前提下提高对瑕疵检测尤其是划痕类目标检测的准确率。本发明用于工业薄膜瑕疵检测可以有效提高薄膜产品的质量,且不需要人工检测,节省了人工及时间成本,满足现代生产要求。
-
公开(公告)号:CN114627292A
公开(公告)日:2022-06-14
申请号:CN202210227869.4
申请日:2022-03-08
Applicant: 浙江工商大学 , 杭州小芃科技有限公司
IPC: G06V10/26 , G06K9/62 , G06V10/771 , G06N3/04
Abstract: 本申请涉及一种工业遮挡目标检测方法,在三次连续的WiggleTransformer Block操作中,在执行每次Wiggle Transformer Block操作中的窗口切分步骤时采用不同类型的W‑MSA模块,WWL‑MSA模块和WWR‑MSA模块进行窗口切分,并在每个切分后形成的窗口中各自进行attention计算。不同的MSA模块可以提取不一样的窗口位置,实现了更多的跨窗口之间的连接,增加了窗口与窗口之间的交互,保留了图片边缘信息交互的必要性,提高了全局性和鲁棒性。在每个窗口中各自进行attention计算,这样做的好处是既能引入CNN卷积操作的局限性,另一方面能节省计算量,以满足工业应用的需求。本申请既可以减少遮挡物对检测目标的影响,又可以多层次增加细节特征,以提高遮挡目标检测的准确率。
-
公开(公告)号:CN114066825A
公开(公告)日:2022-02-18
申请号:CN202111268703.9
申请日:2021-10-29
Applicant: 浙江工商大学
Abstract: 本发明公开了一种改进的基于深度学习的复杂纹理图像瑕疵检测方法。本发明通过对resnet50网络结构的部分改进,将经过layer1和layer2输出的feature map通过1*1的卷积之后,按通道均分为s个子集;每个子集都有相应的convolution和involution操作,其中convolution和involution的两端均有残差结构,除了第一个子特征只进行卷积操作之外,其余子特征都与前一个子特征的输出进行相加之后再进行卷积操作,然后将各个子特征的输出进行拼接,再进行特征的融合;最后将融合后的特征经过SE block以进一步提升瑕疵检测精度。
-
-
-
-
-
-
-
-
-