-
公开(公告)号:CN118397345A
公开(公告)日:2024-07-26
申请号:CN202410500327.9
申请日:2024-04-24
Applicant: 郑州轻工业大学
IPC: G06V10/764 , G06N3/0895 , G06V10/25 , G06V10/774
Abstract: 本发明提出了一种基于分割一切模型和伪全监督学习的高分辨率遥感图像弱监督目标检测方法,步骤包括:S1:构建弱监督深度检测网络,获得弱监督深度检测网络的损失函数、实例分类优化分支损失函数和边界框回归分支损失函数;S2:基于在线实例优化器和边界框回归分支构建伪全监督目标检测头,进行种子实例的挖掘;S3:完成种子的更新并进行标签的传播;S4:利用伪真值实例替代原始方法所产生的原伪真值实例,得到PFSOD Head的损失函数,S5:建立总体损失函数进行训练,得到完成训练的弱监督目标检测模型。本申请通过设计了一种基于分割一切模型的伪真值挖掘策略,提升了弱监督目标检测的检测精度。
-
公开(公告)号:CN116977859A
公开(公告)日:2023-10-31
申请号:CN202310996136.1
申请日:2023-08-09
Applicant: 郑州轻工业大学
IPC: G06V20/10 , G06V10/26 , G06V10/25 , G06V10/50 , G06V10/52 , G06V10/764 , G06V10/774
Abstract: 本发明提出了一种基于多尺度图像切割和实例困难度的弱监督目标检测方法,步骤为:对输入图像进行多尺度切割送入共享的主干网络进行特征提取得到特征图;将目标候选框投影到特征图得到目标候选框的特征矩阵;将特征矩阵经过全连接层得到各个切割尺度下的特征向量,将特征向量输入基准弱监督目标检测模块得到得分矩阵并获取类别置信得分矩阵;将特征向量分别送入多个实例分类优化分支得到类别置信度得分并确定正实例;根据目标候选框在背景类别上的最高类别置信得分得到难负例;进行训练得到弱监督目标检测模型;将待检测图像送入弱监督目标检测模型获得目标的类别和位置。本发明可以有效地提升高分辨率遥感图像弱监督目标检测的检测精度。
-
公开(公告)号:CN111027576B
公开(公告)日:2020-10-30
申请号:CN201911368623.3
申请日:2019-12-26
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于协同显著性生成式对抗网络的协同显著性检测方法,步骤如下:构建协同显著性生成式对抗网络模型;对协同显著性生成式对抗网络模型进行两阶段训练:在第一训练阶段,采用带标签的显著目标数据库对协同显著性生成式对抗网络进行预训练,本阶段训练后,协同显著性生成式对抗网络具备对单幅图像进行显著性检测的能力;在第二训练阶段,基于第一阶段训练好的模型参数,采用协同显著目标属于同一类别的带标签协同显著性数据组对协同显著性生成式对抗网络进行训练,本阶段训练后,可直接使用训练好的模型进行类别协同显著性检测。本发明训练过程简单、检测效率高,通用性较强,准确率较高。
-
公开(公告)号:CN118211119A
公开(公告)日:2024-06-18
申请号:CN202410448491.X
申请日:2024-04-15
Applicant: 郑州轻工业大学
IPC: G06F18/241 , G06F18/213 , G06F18/25 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明提出了一种基于局部和全局时空特征融合的触觉目标识别方法,步骤为:使用梯度自适应采样策略对原始的触觉数据进行采样;采样后的触觉数据送入局部和全局残差网络,局部和全局残差网络内设有多个局部和全局时空卷积块,局部和全局时空卷积块由两对依次连接的局部时空卷积模块和全局时空卷积模块组成,分别提取采样后的触觉数据的局部时空特征和全局时空特征,局部时空特征和全局时空特征送入全连接层与分类器输出类别得分;利用不同的数据集对局部和全局残差网络进行训练,得到触觉目标识别模型;将新的触觉数据使用梯度自适应采样策略进行采样后直接输入触觉目标识别模型,类别得分最高的类别为触觉目标的识别结果。本发明基于局部和全局时空特征融合能够有效提升触觉目标识别任务的识别精度。
-
公开(公告)号:CN116403091A
公开(公告)日:2023-07-07
申请号:CN202310423918.6
申请日:2023-04-18
Applicant: 郑州轻大产业技术研究院有限公司 , 郑州轻工业大学
IPC: G06V10/82 , G06V10/80 , G06V10/764 , G06N3/0464 , G06N3/08
Abstract: 本发明提出了一种基于梯度自适应采样和3D神经网络的触觉物体识别方法,用于解决现有触觉物体识别模型使用均匀采样策略所引起的信息冗余/损失技术问题,以及泛化能力不足以处理不同抓取速度下的触觉数据的技术问题。本发明的步骤为:将原始触觉帧送入梯度自适应采样策略中进行触觉帧的自适应挑选,获取梯度变化较快的触觉帧集;对触觉帧集进行多时间尺度下采样;使用MR3D‑18网络对下采样后的触觉帧分别进行特征提取得到不同时间尺度下的特征;将不同时间尺度下的特征进行融合,并依据融合后的特征识别物体的类别,得到预测分类结果。本发明基于梯度自适应采样策略和多时间尺度3D卷积神经网络,能够有效提升触觉物体识别任务的识别精度。
-
公开(公告)号:CN116310299A
公开(公告)日:2023-06-23
申请号:CN202310294383.7
申请日:2023-03-23
Applicant: 郑州轻工业大学
IPC: G06V10/25 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/44 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明提出了一种基于语义分割和实例再检测的弱监督视觉目标检测方法,步骤为:将图像送入主干网络中得到特征图;使用选择性搜索算法得到初始目标候选框,将初始目标候选框映射到特征图上,感兴趣区域池化得到目标候选框的特征向量;对基础多实例学习网络训练,将目标候选框与分割实例进行交并比运算得到目标覆盖得分和目标置信得分;根据目标置信得分挖掘实例分类优化分支的伪真值实例;利用伪真值实例监督实例分类优化分支的训练;通过增强伪真值生成策略生成增强伪真值实例;依据增强伪真值实例分别对实例再检测模块的再分类分支和再定位分支的训练进行监督。本发明能够有效提升伪标签挖掘的鲁棒性,可以有效提升图像弱监督目标检测的准确性。
-
公开(公告)号:CN113092322A
公开(公告)日:2021-07-09
申请号:CN202110394471.5
申请日:2021-04-13
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于电磁层析成像技术的滑油磨粒在线监测装置及方法,用以解决现有滑油磨粒在线监测易受环境影响,无法检测磨粒大小和位置的问题。本发明的监测装置包括通道切换模块和图像重建计算机,通道切换模块与小尺度双平面电磁层析成像传感器相连接,小尺度双平面电磁层析成像传感器包括激励线圈和检测线圈,激励线圈和检测线圈均设置在滑油管路上;通道切换模块与信号处理电路相连接,信号处理电路与图像重建计算机相连接,图像重建计算机与单片机相连接,单片机与通道切换模块相连接。本发明不受水、气泡等非金属杂质、滑油颜色的影响,可以实现滑油磨粒的快速、非接触、非侵入、低成本及可视化监测,获取磨粒大小和位置信息。
-
公开(公告)号:CN112651940A
公开(公告)日:2021-04-13
申请号:CN202011558989.X
申请日:2020-12-25
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于双编码器生成式对抗网络的协同视觉显著性检测方法,其步骤为:构建双编码器生成式对抗网络模型并进行预训练;预训练的参数用于生成式对抗网络模型;将协同显著性数据以一组图像输入到分类网络模块,提取多尺度组级图像语义类别特征,多尺度语义融合模块融合多尺度组级图像语义类别特征为组间显著性特征;将成组输入的图像以单张依次输入到显著性编码器得到单幅显著性特征;将单幅显著性特征分别与组间显著性特征进行像素级相加得到协同显著性特征,将协同显著性特征输入到解码器解码得到检测图像;利用协同显著性数据集检测训练后的生成式对抗网络模型。本发明模型参数较小,训练和检测操作简单,检测精度较高,提高了效率。
-
公开(公告)号:CN111027576A
公开(公告)日:2020-04-17
申请号:CN201911368623.3
申请日:2019-12-26
Applicant: 郑州轻工业大学
Abstract: 本发明提出了一种基于协同显著性生成式对抗网络的协同显著性检测方法,步骤如下:构建协同显著性生成式对抗网络模型;对协同显著性生成式对抗网络模型进行两阶段训练:在第一训练阶段,采用带标签的显著目标数据库对协同显著性生成式对抗网络进行预训练,本阶段训练后,协同显著性生成式对抗网络具备对单幅图像进行显著性检测的能力;在第二训练阶段,基于第一阶段训练好的模型参数,采用协同显著目标属于同一类别的带标签协同显著性数据组对协同显著性生成式对抗网络进行训练,本阶段训练后,可直接使用训练好的模型进行类别协同显著性检测。本发明训练过程简单、检测效率高,通用性较强,准确率较高。
-
公开(公告)号:CN118586520A
公开(公告)日:2024-09-03
申请号:CN202410720728.5
申请日:2024-06-05
Applicant: 郑州轻工业大学
IPC: G06N20/00 , G06F18/214 , G06F18/23213 , G06F18/24
Abstract: 本发明公开了一种基于多视图shapelet原型网络的少样本故障增量学习方法,包括如下步骤:步骤一、获得初始训练样本D0,初始训练样本D0包括训练集#imgabs0#和验证集#imgabs1#步骤二、对训练集#imgabs2#初始化,然后输入多视图shapelet原型网络进行预训练,得到预训练好的多视图shapelet原型网络;多视图shapelet原型网络的输出包括多视图shapelet集#imgabs3#步骤三、对预训练好的多视图shapelet原型网络进行元训练得到最终的多视图shapelet原型网络和元矫正模块。本发明通过横向联系融合多视角信息,因此,旧类原型和新类原型之间的语义鸿沟得以弥合。总之,提取的多视角小形包含了判别波形的部分关键信息,能够识别任意持续时间的新故障。
-
-
-
-
-
-
-
-
-