-
公开(公告)号:CN113362322A
公开(公告)日:2021-09-07
申请号:CN202110805562.3
申请日:2021-07-16
Applicant: 浙江科技学院
Abstract: 本发明公开了一种判别辅助和多模态加权融合的显著物体检测方法。在训练阶段,构建生成器部分卷积神经网络以及判别器部分卷积神经网络,生成器部分卷积神经网络的隐层包括彩色显著图获取流和热红外显著图获取流;判别器部分卷积神经网络包括四个共享参数、相同结构的卷积神经网络,隐层包括真实/彩色/热红外/融合判别卷积模块、真实/彩色/热红外/融合判别全连接;使用原始图像输入到卷积神经网络中进行训练;在测试阶段,将待检测图像输入到生成器部分中,得到预测显著性检测图像。本发明提高了网络的网络对光线变化的不敏感程度,在黑夜条件下也能检测出显著物体,并且进一步优化了预测图的轮廓信息。
-
公开(公告)号:CN113256603A
公开(公告)日:2021-08-13
申请号:CN202110656452.5
申请日:2021-06-11
Applicant: 浙江科技学院
Abstract: 本发明公开了一种双流网络二次融合的显著性物体检测方法,应用于显著性检测技术领域,其在训练阶段构建卷积神经网络,输入层包括RGB图输入层和热力图输入层,编码部分包括10个神经网络块,译码部分包括5个动态融合块、10个跳连块、5个注意力融合块;将训练集中的每对原始3D图像的RGB图像及对应的热力图像输入到卷积神经网络中进行训练,输出每对原始3D图像对应的显著性预测图像;通过多次迭代并计算显著性预测图像与对应的标签图像之间的损失函数值,获取卷积神经网络训练模型的最优权值矢量和最优偏置项;测试时利用最优权值矢量和最优偏置项进行预测,预测得到显著性预测图像;优点是其显著性检测精度高。
-
公开(公告)号:CN113255817A
公开(公告)日:2021-08-13
申请号:CN202110647372.3
申请日:2021-05-31
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于双向跨模态交互的机器人室内场景语义理解方法,涉及深度学习领域。本发明包括以下步骤:选取原始的室内场景RGB彩色图像、深度图图像以及所述原始的室内场景RGB彩色图像对应的真实语义分割图像,构成训练集;根据人眼视觉系统运作原理和跨模态信息的全局信息互补性构建卷积神经网络;将所述训练集输入到卷积神经网络进行多次训练,得到卷积神经网络分类训练模型。本发明从图像特征提取的完整性,人眼视觉系统运作原理等方面获取模型设计方向和思路,提升了全卷积神经网络,有效提高了图像分割性能。
-
公开(公告)号:CN115761708A
公开(公告)日:2023-03-07
申请号:CN202211259469.8
申请日:2022-10-14
Applicant: 浙江科技学院
Abstract: 本发明公开了一种针对积木识别的注意力与多尺度融合的ATYOLO目标检测方法,该方法基于YOLOV5s网络,并在此基础上加入了Attention机制,主要由输入端、主网络Backbone、连接端Neck以及输出端四部分组成。输入端主要对原始数据进行了Maisc数据增强处理,主网络部分主要利用多尺度特征提取方法来对输入数据进行特征的提取,连接端主要用于变化特征尺度,输出端主要输出处理后的最终结果。本发明通过比较在网络中的不同位置加入不同的Attention机制,找到了有效提高了模型对小目标、密集目标、遮挡目标的识别效果的方法,在减少了模型参数量的情况下还能提高模型的精度,加快了检测速度。
-
公开(公告)号:CN115100402A
公开(公告)日:2022-09-23
申请号:CN202210494910.4
申请日:2022-05-07
Applicant: 浙江科技学院
Abstract: 本发明公开的小样本分割模型、小目标检测方法、系统、介质及设备,其中小样本分割模型包括依次首尾相连的主干网络、ASPP模块、第一解码网络以及第二解码网络,其中第一解码网络将输入的不同尺度的特征图像与倒数第二层下采样卷积模块输出的浅层特征图像进行拼接并上采样,获得第一解码特征图像;第二解码网络中每层第二解码模块输入的解码特征图像与对应的下采样卷积模块输出的浅层特征图像进行注意力处理,获得全局特征图像,第二解码网络将输入的第一解码特征图像逐层与全局特征图像进行拼接并上采样,获得解码图像。该小样本分割模型在有限的样本条件下,可精确分割检测区域,应用该模型进行的小目标检测,可快速识别小目标。
-
公开(公告)号:CN113793329A
公开(公告)日:2021-12-14
申请号:CN202111145434.7
申请日:2021-09-28
Applicant: 浙江科技学院
Abstract: 本发明公开一种空间边缘增强的轻量级显著物体检测方法,该方法包括:将一定数量的原始图像对应的彩色信息图像、热红外信息图像及真实显著物信息图像作为训练集;将彩色信息图像和热红外信息图像作为轻量级卷积神经网络框架的输入层的两种数据输入轻量级卷积神经网络框架进行训练,得到每幅原始图像对应的预测图像;计算预测图像与真实显著物信息图像之间的损失函数;将损失函数的值最小的对应的权值矢量和偏置项对应作为轻量级卷积神经网络框架的最优权值矢量和最优偏置项,得到训练好的轻量级卷积神经网络。本发明利用双边增强对语义信息和空间信息增强,加强模型对显著物体定位的能力以及对显著物体边缘优化的能力。
-
公开(公告)号:CN113378795A
公开(公告)日:2021-09-10
申请号:CN202110785221.4
申请日:2021-07-12
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于生成对抗网络和跨模态特征融合的道路场景语义分割方法,应用于深度学习技术领域,具体步骤如下:利用生成对抗网络,将训练集输入到生成器卷积神经网络,得到训练集中的每幅原始的道路场景图对应的预测图,将原始道路场景图,对应预测图和对应的标签图,输入判别器,得到评价分数,根据评价分数,更新判别器参数;将训练集输入到生成器卷积神经网络,得到训练集中的每幅原始的道路场景图对应的预测图,计算损失函数,并更新生成器参数。本发明解决了现有技术中单纯利用池化操作与卷积操作获得的特征图单一且不具有代表性,从而会导致得到的图像的特征信息减少,最终导致还原的效果信息比较粗糙,分割精度低。
-
公开(公告)号:CN113313077A
公开(公告)日:2021-08-27
申请号:CN202110743443.X
申请日:2021-06-30
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于多策略融合的显著性物体检测方法,涉及深度学习领域。其在训练阶段,构建卷积神经网络,其隐层包括10个神经网络卷积块、5个多策略融合块、4个交叉特征融合块;使用原始的RGB彩色图和Depth深度图输入到卷积神经网络中进行训练,得到对应的显著体检测图;再通过计算原始的预测图与对应真实的显著体标签图(Ground Truth)的损失函数值,获得卷积神经网络分类训练模型的最优权值矢量和偏置项;在测试阶段,将待检测的显著体的RGB彩色图和对应的Depth深度图一起输入到卷积神经网络分类训练模型中,得到预测显著体检测图像;优点是提高了RGB‑D显著体检测效率和准确度。
-
公开(公告)号:CN113269787A
公开(公告)日:2021-08-17
申请号:CN202110553034.3
申请日:2021-05-20
Applicant: 浙江科技学院
Abstract: 本发明公开了一种基于门控融合的遥感图像语义分割方法。选取Q幅原始遥感图像及每幅原始遥感图像对应的数字表面模型图像和真实语义分割图像作为训练集;构建卷积神经网络,卷积神经网络包括输入模块、特征编码模块、特征解码模块和输出模块;特征编码模块包括遥感图像编码层、数字表面模型编码层和特征完善融合层,特征解码模块包括全局上下文层和特征渐进融合解码层;将训练集输入构建的卷积神经网络进行训练;将待语义分割的遥感图像及对应的数字表面模型图像输入完成训练的卷积神经网络中,输出对应的语义分割图像,完成遥感图像的语义分割。本发明方法的分割效率高,且分割准确度高。
-
公开(公告)号:CN112733934A
公开(公告)日:2021-04-30
申请号:CN202110025132.X
申请日:2021-01-08
Applicant: 浙江科技学院
Abstract: 本发明公开了一种复杂环境下的多模态特征融合道路场景语义分割方法。选取道路场景图像、热图像和分割标签图像构成训练集;构建卷积神经网络;将训练集输入到卷积神经网络训练得语义分割结果图,训练完成得语义分割结果图构成的集合,并与所有道路场景图像对应的分割标签图像构成的集合之间计算损失函数值;重复步骤训练获得最小损失函数值对应的最优参数;将待分割的原始道路场景图像的多通道分量输入,利用最优参数进行预测,得到待分割的原始道路场景图像的显著性检测图像,获得分割结果。本发明应用了新颖的模块优化了特征图像的解码,结合分层次、多模态的信息融合,最终提高了道路场景语义分割任务的分割效率和准确度。
-
-
-
-
-
-
-
-
-