-
公开(公告)号:CN114882253A
公开(公告)日:2022-08-09
申请号:CN202210645732.0
申请日:2022-06-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于对比学习和自注意力机制的面料织法匹配方法,包括采集多种不同织法的面料图像,经过增强处理后以张量的形式存放在模式匹配数据库中。再基于深度学习的基本结构,设计包括残差网络和自编码器的对比学习网络,利用对比损失函数计算正负例的对比计算误差,再通过梯度反向传播进行迭代训练;将训练后的自编码器与多头自注意力层级联,提取待检索图像的全局信息和局部细节;采用全连接层和归一化残差连接层输出特征,并据此进行概率投射排序,匹配最符合的面料织法模式。本发明解决了面料织法模式匹配问题,将多头自注意力机制引入传统的对比学习架构中,实现了对面料织法图像的更优匹配,提高了目标识别和匹配的精度和效率。
-
公开(公告)号:CN114882253B
公开(公告)日:2024-12-03
申请号:CN202210645732.0
申请日:2022-06-08
Applicant: 杭州电子科技大学
IPC: G06V10/75 , G06V10/74 , G06V10/44 , G06V10/764 , G06V10/82 , G06N3/0455 , G06N3/084 , G06N3/0895
Abstract: 本发明公开了一种基于对比学习和自注意力机制的面料织法匹配方法,包括采集多种不同织法的面料图像,经过增强处理后以张量的形式存放在模式匹配数据库中。再基于深度学习的基本结构,设计包括残差网络和自编码器的对比学习网络,利用对比损失函数计算正负例的对比计算误差,再通过梯度反向传播进行迭代训练;将训练后的自编码器与多头自注意力层级联,提取待检索图像的全局信息和局部细节;采用全连接层和归一化残差连接层输出特征,并据此进行概率投射排序,匹配最符合的面料织法模式。本发明解决了面料织法模式匹配问题,将多头自注意力机制引入传统的对比学习架构中,实现了对面料织法图像的更优匹配,提高了目标识别和匹配的精度和效率。
-
公开(公告)号:CN114937155A
公开(公告)日:2022-08-23
申请号:CN202210644609.7
申请日:2022-06-08
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于深度学习的面料图像成份识别方法。首先采集不同成分的面料图像作为训练数据集。然后采用双三次插值和基于拉普拉斯算子的边缘检测进行图像的缩放和增强。然后根据深度学习的基本架构,设计以ResNet‑34为主体的卷积神经网络;利用分类的损失函数,通过梯度反向传播进行迭代训练,将待识别图像输入训练后的神经网络进行特征提取,再通过以自注意力机制为基础的Transformer结构中,利用基于移位窗口减少计算数据量。最后通过一次线性变换以及Softmax函数得到概率分布,输出面料图像识别结果。本发明有效地摆脱环境噪声的干扰,实现了对面料图像特征的精确提取,以及目标匹配与识别的成功率与准确率。
-
公开(公告)号:CN115082652A
公开(公告)日:2022-09-20
申请号:CN202210651620.6
申请日:2022-06-09
Applicant: 杭州电子科技大学
IPC: G06V10/141 , G06V10/40 , G06V10/75 , G06V10/764 , G06V10/82 , G01N21/17 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于可控光源采集装置的面料成分识别系统。包括图像采集模块、数据预处理模块和面料识别模块。其中图像采集模块通过微型摄像机采集不同成分的面料图像。数据预处理模块用于对采集的图像进行去噪和边缘增强。面料识别模块通过训练后的混合注意力模型,提取不同层次的图像特征,然后运用多层注意力机制抑制无用特征,增强有用特征,最后输出最能反映输入图像的特征向量,与模板库中存储的各种面料图像的特征向量进行比对,选取特征向量最接近的标签,作为当前面料图像的成分识别结果。本系统有效地解决了图像采集的各种环境光干扰因素,实现了对面料细节部分的细节保留和增强,并且提高了面料成分检测的预测成功率和准确率。
-
公开(公告)号:CN116797820A
公开(公告)日:2023-09-22
申请号:CN202310549198.8
申请日:2023-05-16
Applicant: 杭州电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 基于深度学习模型的时尚搭配检测识别方法,属于计算机视觉领域。本方法适用多个场景,该系统的识别效率及识别精度高;Pix2Seq将对象检测转换为以观察到的像素输入为条件的语言建模任务;对象描述和对象位置被表示为离散标记的目标序列;再训练神经网络来感知图像并生成构造序列,即通过Encoder结构对图片内容消化理解,并通过Decoder将其转化为描述这张图片的文本张量序列;将目标序列和源序列用最大似然方式构造损失函数,不断迭代更新神经网络,从而构造目标检测模型。该系统可以实现以下功能:对输入的时尚穿搭照片进行目标检测,识别出各部分的服装。
-
公开(公告)号:CN116778191A
公开(公告)日:2023-09-19
申请号:CN202310549202.0
申请日:2023-05-16
Applicant: 杭州电子科技大学
IPC: G06V10/56 , G06V10/74 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08 , G06N20/00
Abstract: 基于卷积和自注意机制神经网络的织物颜色识别方法,属于图像识别技术领域。本发明提出一种全新的基于卷积神经网络的颜色预测模型CSAM,卷积层和注意层按原则穿插叠加,很好地提高了模型的泛化能力、容量和效率;通过考虑原始输入图像与一组参考彩色图像之间的差异,并在色差域对输入图像进行RGB编码,提取织物图像中的颜色识别特征,然后采用一种集成式的卷积神经网络架构,最后通过卷积层和最大池化层的特征计算降维后通过softmax激活函数的密集层,对各个分类器的预测结果加权平均,对织物颜色进行有效的分类预测。本发明采用了全新的神经网络架构,显著地提高织物颜色识别的识别成功率和准确率,且拥有良好的可移植性和泛用性。
-
-
-
-
-