-
公开(公告)号:CN112270722B
公开(公告)日:2024-05-17
申请号:CN202011155761.6
申请日:2020-10-26
Applicant: 西安工程大学
IPC: G06F30/27
Abstract: 本发明公开了一种基于深度神经网络的数码印花织物缺陷检测方法,具体按照以下步骤实施:步骤1、采集分辨率为416×416大小的RGB彩色数码印花织物缺陷图像;建立神经网络;步骤2、利用步骤1获得的彩色数码印花织物缺陷图像,进行目标信息的提取和标定,建立数码印花织物缺陷样本数据集,得到训练集、验证集和测试集;步骤3、利用步骤1建立的神经网络和ImageNet数据集的训练集建立损失函数,利用损失函数训练神经网络,得到预训练模型,利用步骤2得到的训练集和验证集对预训练模型进行调整和验证;步骤4、利用步骤2得到的测试集对模型进行评价。本发明公开的一种基于深度神经网络的数码印花织物缺陷检测方法能够实现数码印花缺陷的实时准确检测。
-
公开(公告)号:CN111861996B
公开(公告)日:2023-11-03
申请号:CN202010580937.6
申请日:2020-06-23
Applicant: 西安工程大学
Abstract: 本发明公开了一种印花织物疵点检测方法,首先将待检测的印花织物疵点图像缩放,然后将缩放后的印花织物疵点图像做显著性检测,得到印花织物疵点显著性图像;将得到的印花织物疵点显著性图像进行大津阈值二值化处理;处理后的二值图作为mask掩码图,确定待修复区域,然后利用Criminisi算法修复原印花缺陷样本,得到修复的印花图;最后将得到的修复的印花图与原印花图做减法,得到差别图;本发明的一种印花织物疵点检测方法能对印花织物复杂的背景纹理做到抑制作用,并能做到有效准确的检测疵点。
-
公开(公告)号:CN116342535A
公开(公告)日:2023-06-27
申请号:CN202310310571.4
申请日:2023-03-27
Applicant: 西安工程大学 , 西安德高印染自动化工程有限公司
IPC: G06T7/00 , G06V10/34 , G06V10/28 , G06V10/762
Abstract: 本发明公开了一种基于改进FRFCM的氨纶包覆纱CV值检测方法,包括以下步骤:对待检测的氨纶包覆纱线图像进行预处理,得到预处理图像;基于改进FRFCM,对预处理图像进行平滑处理和聚类处理,得到氨纶包覆纱条干图像;对氨纶包覆纱条干图像采用形态学开运算进行处理,得到精确氨纶包覆纱条干图像,并计算精确氨纶包覆纱条干图像中氨纶包覆纱条干平均直径和CV值。本发明利用FRFCM算法在提取氨纶包覆纱条干的过程中,引入了图像平滑算法,有效滤除氨纶包覆纱孤立部分影响并加快了处理速度,使得到的条干图像更精确,解决了现有的依赖于人工进行检测存在的效率低和检测标准不统一的问题。
-
公开(公告)号:CN112270220A
公开(公告)日:2021-01-26
申请号:CN202011096967.6
申请日:2020-10-14
Applicant: 西安工程大学
Abstract: 本发明公开了一种基于深度学习的缝纫手势识别方法,具体按照如下步骤实施:步骤1,数据集采集及预处理;步骤2,将经过预处理后数据集中的图片以RGB图片帧的形式输入GRU神经网络中进行数据训练;步骤3,将GRU网络的输出结果作为DNN神经网络的输入进行进一步的特征提取,构成GRU‑DNN网络对缝纫手势进行识别;步骤4,将步骤3所提取的特征送入SVM分类器中进行动作分类。本发明解决了现有技术中存在的DNN在进行行为检测时无法对时间序列上有变化的情况做及时的处理,而RNN网络结构在检测过程中会出现的梯度消失问题,导致识别效果不准确的问题。
-
公开(公告)号:CN111368875A
公开(公告)日:2020-07-03
申请号:CN202010086355.2
申请日:2020-02-11
Applicant: 西安工程大学
Abstract: 本发明公开了基于stacking无参考型超分辨图像质量评价方法,具体包括以下步骤:首先通过现有训练好的VGGnet模型提取超分辨图像的深度特征,用于量化超分辨图像的退化;然后,将包含SVR和k-NN算法的stacking回归算法用作第一层回归模型,以构建从VGGnet模型提取的深度特征到预测质量分数的映射模型,再采用线性回归算法得到第二层回归模型,从而形成stacking回归模型,以实现无参考评价超分辨图像的质量。本发明提出了利用SVR和k-NN的两种不同基础回归器的互补性优势,将线性回归作为元回归器,提高了预测准确性,本发明能够获得更为接近人眼主观评价的超分辨图像质量分数。
-
公开(公告)号:CN110021023A
公开(公告)日:2019-07-16
申请号:CN201910164685.6
申请日:2019-03-05
Applicant: 西安工程大学
Abstract: 本发明公开了一种电子布疵点分割方法,具体步骤如下:首先将待检测的电子布图像换为灰度图像;其次对灰度图像进行ButterWorth滤波处理;再次采用K-means算法对滤波后的图像进行聚类;最后将经聚类的图像的像素点按聚类的类别进行标记,根据标记结果进行二值化处理,即可分割出织物疵点。本发明的方法使用ButterWorth低通滤波器对电子布图像进行处理,能够在抑制背景纹理的同时,最大限度保留疵点的细节信息,增强背景与疵点区域的对比度。同时,使用K-means算法对滤波后的图像进行聚类,最终可以将电子布图像聚成为不同类,进而根据标记结果,对图像进行二值化分割,达到电子布疵点的精确定位、准确分割。
-
公开(公告)号:CN109615576A
公开(公告)日:2019-04-12
申请号:CN201810689607.3
申请日:2018-06-28
Applicant: 西安工程大学
IPC: G06T3/40
Abstract: 本发明公开的基于级联回归基学习的单帧图像超分辨重建方法,包括以下步骤:以单帧低分辨图像的超分辨重建技术为研究对象,学习表征图像结构的多层超完备子字典,构造低分辨与高分辨图像的映射关系并学习优化的回归基和对应编码系数;随后对低分辨图像集实现完整的超分辨重建,并将重建的图像作为下一层的低分辨图像进行特征提取。本发明单帧图像超分辨重建方法通过统计机器学习方法,利用元字典学习方法学习得到低分辨字典,利用加权线性回归方法以一种级联的形式对重建的高分辨训练集图像和原始高分辨图像进行多层回归基学习,以逼近低分辨与高分辨图像之间复杂的非线性映射关系,实现处理速度快、内存占用少、重建质量高的实例回归超分辨重建。
-
公开(公告)号:CN108550111A
公开(公告)日:2018-09-18
申请号:CN201810320484.6
申请日:2018-03-30
Applicant: 西安工程大学
IPC: G06T3/40
Abstract: 本发明公开了一种基于多级字典学习的残差实例回归超分辨重建方法,包括如下步骤:使用高分辨图像生成训练集,建立低分辨和高分辨图像块的成组块对;提取低分辨图像块的特征向量,利用K-SVD学习一个具有较强表征能力的字典作为锚点;利用学习得到的字典对成组块中低分辨和高分辨块做最小二乘回归,得到线性映射关系;估计高分辨特征,计算出重构误差,将估计的高分辨特征做进一步的字典学习的同时与重构误差做映射;L层后,得到一组残差回归器;利用输入的图像与得到的残差回归器做重建,将得到的高分辨特征用于下一层的重建;将所有估计的高分辨图像块进行加和计算,合成高分辨图像。本发明具有更强的超分辨能力,可用于低分辨自然图像的放大。
-
公开(公告)号:CN119007173A
公开(公告)日:2024-11-22
申请号:CN202411091564.0
申请日:2024-08-09
Applicant: 西安工程大学
IPC: G06V20/60 , G06V10/20 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06V20/70 , G06N3/0895
Abstract: 本发明公开的基于CNN‑Transformer的毛羽检测方法,包括以下步骤:S1:采集纱线毛羽图像,进行纱线毛羽图像预处理,建立纱线毛羽数据集;S2:对纱线毛羽图像进行标注,随机选择任意比例纱线毛羽图像划分训练集和测试集;S3:通过混合数据增强方法、CNN编码器和分组Transformer解码器构建网络模型;S4:将已经划分好的无标注纱线毛羽图像载入网络模型进行预训练,再利用标注纱线毛羽图像对预训练网络模型进行优化;S5:通过局部邻域搜索对网络模型中纱线毛羽图像进行统计,完成毛羽检测。本发明的基于CNN‑Transformer的毛羽检测方法,解决现有技术中存在的交叉毛羽数量难以准确统计的问题。
-
公开(公告)号:CN116342376A
公开(公告)日:2023-06-27
申请号:CN202310287675.8
申请日:2023-03-22
Applicant: 西安工程大学 , 西安德高印染自动化工程有限公司
IPC: G06T3/00 , G06N3/096 , G06N3/082 , G06N3/0455 , G06N3/0464
Abstract: 本发明公开了基于分段训练策略的知识蒸馏方法,通过引入知识蒸馏对风格迁移模型进行压缩,以实现在相同硬件条件下能够处理更高分辨率的图像,同时为了避免压缩模型带来模型性能的下降,提出一种新的分段训练策略,在知识蒸馏的过程中对学生模型进行强化训练,以保证生成图像的质量;该方法能够使得压缩后的模型更好更快的还原内容和风格,保证了生成质量。
-
-
-
-
-
-
-
-
-