-
公开(公告)号:CN111091105A
公开(公告)日:2020-05-01
申请号:CN201911340541.8
申请日:2019-12-23
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于新的边框回归损失函数的遥感图像目标检测方法,其步骤如下:以高分辨率遥感图像为训练样本训练候选区域生成网络,候选区域生成网络的边框回归损失函数采用新的损失函数;通过训练好的候选区域生成网络得到候选目标框作为目标初始位置训练区域检测网络,区域检测网络的边框回归损失函数采用新的边框回归损失函数;交替训练候选区域生成网络和区域检测网络;共享候选区域生成网络和区域检测网络的主干网络,合并训练后的候选区域生成网络和区域检测网络构建检测模型,获得待检测的高分辨率遥感图像感兴趣目标的位置和类别。本发明通过改进目标检测的边框回归损失函数,能够有效提升高分辨率遥感图像目标检测的精度。
-
公开(公告)号:CN118397345A
公开(公告)日:2024-07-26
申请号:CN202410500327.9
申请日:2024-04-24
Applicant: 郑州轻工业大学
IPC: G06V10/764 , G06N3/0895 , G06V10/25 , G06V10/774
Abstract: 本发明提出了一种基于分割一切模型和伪全监督学习的高分辨率遥感图像弱监督目标检测方法,步骤包括:S1:构建弱监督深度检测网络,获得弱监督深度检测网络的损失函数、实例分类优化分支损失函数和边界框回归分支损失函数;S2:基于在线实例优化器和边界框回归分支构建伪全监督目标检测头,进行种子实例的挖掘;S3:完成种子的更新并进行标签的传播;S4:利用伪真值实例替代原始方法所产生的原伪真值实例,得到PFSOD Head的损失函数,S5:建立总体损失函数进行训练,得到完成训练的弱监督目标检测模型。本申请通过设计了一种基于分割一切模型的伪真值挖掘策略,提升了弱监督目标检测的检测精度。
-
公开(公告)号:CN111027576B
公开(公告)日:2020-10-30
申请号:CN201911368623.3
申请日:2019-12-26
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于协同显著性生成式对抗网络的协同显著性检测方法,步骤如下:构建协同显著性生成式对抗网络模型;对协同显著性生成式对抗网络模型进行两阶段训练:在第一训练阶段,采用带标签的显著目标数据库对协同显著性生成式对抗网络进行预训练,本阶段训练后,协同显著性生成式对抗网络具备对单幅图像进行显著性检测的能力;在第二训练阶段,基于第一阶段训练好的模型参数,采用协同显著目标属于同一类别的带标签协同显著性数据组对协同显著性生成式对抗网络进行训练,本阶段训练后,可直接使用训练好的模型进行类别协同显著性检测。本发明训练过程简单、检测效率高,通用性较强,准确率较高。
-
公开(公告)号:CN116310299A
公开(公告)日:2023-06-23
申请号:CN202310294383.7
申请日:2023-03-23
Applicant: 郑州轻工业大学
IPC: G06V10/25 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明提出了一种基于语义分割和实例再检测的弱监督视觉目标检测方法,步骤为:将图像送入主干网络中得到特征图;使用选择性搜索算法得到初始目标候选框,将初始目标候选框映射到特征图上,感兴趣区域池化得到目标候选框的特征向量;对基础多实例学习网络训练,将目标候选框与分割实例进行交并比运算得到目标覆盖得分和目标置信得分;根据目标置信得分挖掘实例分类优化分支的伪真值实例;利用伪真值实例监督实例分类优化分支的训练;通过增强伪真值生成策略生成增强伪真值实例;依据增强伪真值实例分别对实例再检测模块的再分类分支和再定位分支的训练进行监督。本发明能够有效提升伪标签挖掘的鲁棒性,可以有效提升图像弱监督目标检测的准确性。
-
公开(公告)号:CN114743027A
公开(公告)日:2022-07-12
申请号:CN202210375572.2
申请日:2022-04-11
Applicant: 郑州轻工业大学
IPC: G06V10/46 , G06V10/774 , G06V10/80 , G06V10/82 , G06V10/764 , G06V10/94 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种弱监督学习引导的协同显著性检测方法,用以解决现有协同显著性检测方法易受到不相关的显著目标的干扰的技术问题。本发明的步骤为:搭建GCAM网络的架构;搭建主干网络的架构,通过GCAM网络和主干网络构建GWSCoSal模型;利用训练数据对GCAM网络以图像组的公共类别标签作为真值进行弱监督训练;利用训练数据对主干网络进行像素级训练;GCAM网络的弱监督训练和主干网络的像素级训练联合执行,得到训练后的优化GWSCoSal模型。利用优化GWSCoSal模型对协同显著性数据集进行预测,生成预测的协同显著图。本发明在受到相似非公共显著目标干扰的情况下,能够更准确地检测出协同显著目标,操作简单,检测精度较高。
-
公开(公告)号:CN112651940A
公开(公告)日:2021-04-13
申请号:CN202011558989.X
申请日:2020-12-25
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于双编码器生成式对抗网络的协同视觉显著性检测方法,其步骤为:构建双编码器生成式对抗网络模型并进行预训练;预训练的参数用于生成式对抗网络模型;将协同显著性数据以一组图像输入到分类网络模块,提取多尺度组级图像语义类别特征,多尺度语义融合模块融合多尺度组级图像语义类别特征为组间显著性特征;将成组输入的图像以单张依次输入到显著性编码器得到单幅显著性特征;将单幅显著性特征分别与组间显著性特征进行像素级相加得到协同显著性特征,将协同显著性特征输入到解码器解码得到检测图像;利用协同显著性数据集检测训练后的生成式对抗网络模型。本发明模型参数较小,训练和检测操作简单,检测精度较高,提高了效率。
-
公开(公告)号:CN111091105B
公开(公告)日:2020-10-20
申请号:CN201911340541.8
申请日:2019-12-23
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于新的边框回归损失函数的遥感图像目标检测方法,其步骤如下:以高分辨率遥感图像为训练样本训练候选区域生成网络,候选区域生成网络的边框回归损失函数采用新的损失函数;通过训练好的候选区域生成网络得到候选目标框作为目标初始位置训练区域检测网络,区域检测网络的边框回归损失函数采用新的边框回归损失函数;交替训练候选区域生成网络和区域检测网络;共享候选区域生成网络和区域检测网络的主干网络,合并训练后的候选区域生成网络和区域检测网络构建检测模型,获得待检测的高分辨率遥感图像感兴趣目标的位置和类别。本发明通过改进目标检测的边框回归损失函数,能够有效提升高分辨率遥感图像目标检测的精度。
-
公开(公告)号:CN111027576A
公开(公告)日:2020-04-17
申请号:CN201911368623.3
申请日:2019-12-26
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于协同显著性生成式对抗网络的协同显著性检测方法,步骤如下:构建协同显著性生成式对抗网络模型;对协同显著性生成式对抗网络模型进行两阶段训练:在第一训练阶段,采用带标签的显著目标数据库对协同显著性生成式对抗网络进行预训练,本阶段训练后,协同显著性生成式对抗网络具备对单幅图像进行显著性检测的能力;在第二训练阶段,基于第一阶段训练好的模型参数,采用协同显著目标属于同一类别的带标签协同显著性数据组对协同显著性生成式对抗网络进行训练,本阶段训练后,可直接使用训练好的模型进行类别协同显著性检测。本发明训练过程简单、检测效率高,通用性较强,准确率较高。
-
公开(公告)号:CN118608839A
公开(公告)日:2024-09-06
申请号:CN202410696134.5
申请日:2024-05-31
Applicant: 郑州轻工业大学
IPC: G06V10/764 , G06V10/774 , G06N3/0895 , G06N3/0464 , G06V10/74 , G06V10/25 , G06V10/82
Abstract: 本发明提出了一种基于完备多实例学习和软标签定义的遥感图像弱监督目标检测方法,步骤为:对原始图像进行不同的仿射变换,输入卷积神经得到多个特征图,生成一系列目标候选框;将多个特征图和目标候选框依次输入感兴趣区域池化层、两个全连接层得到目标候选框特征向量,将目标候选框特征向量依次输入基础多实例学习网络、多个实例分类优化分支,得到类别置信得分矩阵;根据伪标签挖掘策略构建特征库,根据相似性阈值判断目标候选框是否是种子实例;对所有实例的软标签进行定义生成监督信号直接监督实例分类优化分支;通过完备多实例学习为每个实例分类优化分支引入真实标签的监督间接训练实例分类优化分支;将遥感图像输入训练好的弱监督目标检测模型得到预测结果。本发明通过完备多实例学习和精确的软标签定义提高了弱监督目标的检测精度与定位精度。
-
公开(公告)号:CN116778159A
公开(公告)日:2023-09-19
申请号:CN202310708773.4
申请日:2023-06-14
Applicant: 郑州轻工业大学
IPC: G06V10/26 , G06V10/764 , G06N3/0464 , G06N3/0895 , G06V20/70
Abstract: 本发明提出了一种基于语义分割和实例再检测的弱监督视觉目标检测方法,步骤为:将图像送入主干网络中得到特征图;使用选择性搜索算法得到初始目标候选框,将初始目标候选框映射到特征图上,感兴趣区域池化得到目标候选框的特征向量;对基础多实例学习网络训练,将目标候选框与分割实例进行交并比运算得到目标覆盖得分和目标置信得分;根据目标置信得分挖掘实例分类优化分支的伪真值实例;利用伪真值实例监督实例分类优化分支的训练;通过增强伪真值生成策略生成增强伪真值实例;依据增强伪真值实例分别对实例再检测模块的再分类分支和再定位分支的训练进行监督。本发明能够有效提升伪标签挖掘的鲁棒性,可以有效提升图像弱监督目标检测的准确性。
-
-
-
-
-
-
-
-
-