-
公开(公告)号:CN114972213A
公开(公告)日:2022-08-30
申请号:CN202210499963.5
申请日:2022-05-09
Applicant: 浙江科技学院
IPC: G06T7/00 , G06N3/04 , G06N3/08 , G06V10/25 , G06V10/764 , G06V10/77 , G06V10/774 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于机器视觉的两阶段主板图像缺陷检测及定位方法,该方法的第一阶段为目标识别网络,将原始图像输入至特征提取网络,获取融合特征图;构建RPN目标识别网络,输入融合特征图获得目标识别候选区域图像。第二阶段为轻量化缺陷检测网络,构建跨注意力机制的轻量化特征提取模块嵌入至基于通道压缩的生成对抗网络,对上一阶段输出的所有图像进行缺陷预测,依照异常分数在原始图像中检测缺陷及定位。本发明利用目标识别网络为缺陷检测网络输入候选区域图像,实现复杂检测场景下,为缺陷检测网络去除大量无关特征;结合有监督学习与无监督学习,无需关注缺陷特征类型,并解决正常样本与缺陷样本数量不均衡导致分类效果不佳。
-
公开(公告)号:CN113781504A
公开(公告)日:2021-12-10
申请号:CN202111082517.6
申请日:2021-09-15
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于边界引导的道路场景语义分割方法,涉及深度学习领域,具体步骤为:获取训练集,训练集包括原始道路场景RGB图像、Thermal热红外图像、预处理后的边界图像;构建卷积神经网络;将训练集输入到卷积神经网络中进行训练,得到对应的语义分割预测图;语义分割预测图构成第一集合,真实语义分割图像处理成的独热编码图像构成第二集合,计算第一集合与第二集合之间的损失函数,得到卷积神经网络分类训练模型的最优权值矢量和偏置项,卷积神经网络分类训练模型训练完成;将待语义分割的道路场景图像输入卷积神经网络分类训练模型中,得到预测语义分割图像,优点是提高了RGB‑T道路图像的语义分割效率和准确度。
-
公开(公告)号:CN112733934B
公开(公告)日:2024-07-05
申请号:CN202110025132.X
申请日:2021-01-08
Applicant: 浙江科技学院
IPC: G06V10/774 , G06V10/764 , G06V10/82 , G06T7/11 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种复杂环境下的多模态特征融合道路场景语义分割方法。选取道路场景图像、热图像和分割标签图像构成训练集;构建卷积神经网络;将训练集输入到卷积神经网络训练得语义分割结果图,训练完成得语义分割结果图构成的集合,并与所有道路场景图像对应的分割标签图像构成的集合之间计算损失函数值;重复步骤训练获得最小损失函数值对应的最优参数;将待分割的原始道路场景图像的多通道分量输入,利用最优参数进行预测,得到待分割的原始道路场景图像的显著性检测图像,获得分割结果。本发明应用了新颖的模块优化了特征图像的解码,结合分层次、多模态的信息融合,最终提高了道路场景语义分割任务的分割效率和准确度。
-
公开(公告)号:CN114943694A
公开(公告)日:2022-08-26
申请号:CN202210499962.0
申请日:2022-05-09
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于对抗生成网络与注意力的缺陷检测方法,该方法将待检测的原始图像输入到基于对抗生成网络与注意力的缺陷检测网络中,将原始图像处理为较小图像后,构建基于残差连接与SoftPool的下采样模块和基于注意力方法的跳跃连接模块,将两者作为基本处理单元嵌入到基于对抗生成网络结构的骨干网络中,仅利用正常类样本学习到正常类的模型,利用模型对原始图像的缺陷预测。本发明使用强特征提取能力的下采样模块与跳跃连接模块,实现高准确度的缺陷检测;基于无监督学习的方法,不添加任何额外标注,有效降低对产品缺陷检测数据集的数量需求与类别要求。
-
公开(公告)号:CN113470033A
公开(公告)日:2021-10-01
申请号:CN202110623370.0
申请日:2021-06-04
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于双侧边动态交叉融合的道路场景图像处理方法。本发明包括训练阶段和测试阶段两个过程;选取道路场景图像及对应的热力图和真实语义理解图像,构成训练集;构建卷积神经网络;将训练集进行数据增强,获得初始输入图像对,并输入到卷积神经网络进行处理,得到对应的道路场景预测图;计算道路场景预测图与对应的真实语义分割图像之间的损失函数值;重复上述步骤,获得卷积神经网络分类训练模型;将待语义分割的道路场景图像和对应的热力图像输入到卷积神经网络分类训练模型中,得到对应的预测语义分割图像。本发明有效地提高了道路场景图像的语义分割精确度,减少了细节特征丢失,物体边缘能更好还原。
-
公开(公告)号:CN113192073A
公开(公告)日:2021-07-30
申请号:CN202110368207.4
申请日:2021-04-06
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于交叉融合网络的服装语义分割方法。本发明包括训练阶段和测试阶段两个过程;训练阶段:1_1选取Q幅原始服装场景图像及对应的深度图像和真实语义分割图像,并构成训练集;1_2构建卷积神经网络;1_3将训练集进行数据增强,获得初始输入图像,将初始输入图像输入到卷积神经网络中进行训练,得到对应的语义分割预测图;1_4计算语义分割预测图与对应的真实语义分割图像之间的损失函数值;1_5重复执行1_3和1_4,获得卷积神经网络分类训练模型;测试阶段:2将待语义分割的服装场景图像和对应的深度图像输入到卷积神经网络分类训练模型中,获得对应的预测语义分割图像。本发明提高了RGB‑D服装图像的语义分割效率和准确度。
-
公开(公告)号:CN113362349B
公开(公告)日:2024-05-10
申请号:CN202110823118.4
申请日:2021-07-21
Applicant: 浙江科技学院
IPC: G06T7/11 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多监督网络的道路场景图像语义分割方法。本发明包括训练阶段和测试阶段两个过程;包括:选取多幅原始道路场景RGB图像和对应的原始Thermal热红外图像以及真实语义分割图像,对图像预处理后构成训练集;构建卷积神经网络;将训练集输入到卷积神经网络中进行训练,卷积神经网络输出七个预测图集合;计算最终损失值;重复上述步骤多次,获得卷积神经网络分类训练模型;输入多幅待语义分割的原始道路场景RGB图像和原始Thermal热红外图像,获得对应的语义分割预测图。本发明提高了RGB‑T道路场景图像的语义分割效率和准确度。
-
公开(公告)号:CN113362322B
公开(公告)日:2024-04-30
申请号:CN202110805562.3
申请日:2021-07-16
Applicant: 浙江科技学院
IPC: G06T7/00 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种判别辅助和多模态加权融合的显著物体检测方法。在训练阶段,构建生成器部分卷积神经网络以及判别器部分卷积神经网络,生成器部分卷积神经网络的隐层包括彩色显著图获取流和热红外显著图获取流;判别器部分卷积神经网络包括四个共享参数、相同结构的卷积神经网络,隐层包括真实/彩色/热红外/融合判别卷积模块、真实/彩色/热红外/融合判别全连接;使用原始图像输入到卷积神经网络中进行训练;在测试阶段,将待检测图像输入到生成器部分中,得到预测显著性检测图像。本发明提高了网络的网络对光线变化的不敏感程度,在黑夜条件下也能检测出显著物体,并且进一步优化了预测图的轮廓信息。
-
公开(公告)号:CN115909004A
公开(公告)日:2023-04-04
申请号:CN202211304254.3
申请日:2022-10-24
Applicant: 浙江科技学院
IPC: G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/0475 , G06N3/044 , G06N3/08
Abstract: 本发明公开了一种基于内置注意力机制的多域图像翻译模型,包括生成器:配置为带有内置注意力机制模块的生成器架构,用于将原图像经过生成器得到对应的生成图像,包括UNet网络和RCNN网络,用于将输入的原始图像经过编码阶段提取特征编码,再经过解码阶段将编码恢复到图像的结构以获取生成图像;鉴别器:配置有基于CNN的patch鉴别器,接收原图像和生成图像给出判断的概率结果本发明基于DCNN的新颖的生成器框架,融合了RRCNN、U‑Net以及Attention Gate等机制,可以消除跳跃连接中不相关的和有噪声的响应;本发明提供的多域图像翻译模型有助于加快学习速度,并为图像翻译任务提供更好的特征表示。
-
公开(公告)号:CN113362322A
公开(公告)日:2021-09-07
申请号:CN202110805562.3
申请日:2021-07-16
Applicant: 浙江科技学院
Abstract: 本发明公开了一种判别辅助和多模态加权融合的显著物体检测方法。在训练阶段,构建生成器部分卷积神经网络以及判别器部分卷积神经网络,生成器部分卷积神经网络的隐层包括彩色显著图获取流和热红外显著图获取流;判别器部分卷积神经网络包括四个共享参数、相同结构的卷积神经网络,隐层包括真实/彩色/热红外/融合判别卷积模块、真实/彩色/热红外/融合判别全连接;使用原始图像输入到卷积神经网络中进行训练;在测试阶段,将待检测图像输入到生成器部分中,得到预测显著性检测图像。本发明提高了网络的网络对光线变化的不敏感程度,在黑夜条件下也能检测出显著物体,并且进一步优化了预测图的轮廓信息。
-
-
-
-
-
-
-
-
-