一种基于通道自监督的在线知识蒸馏方法

    公开(公告)号:CN114913343A

    公开(公告)日:2022-08-16

    申请号:CN202210674288.5

    申请日:2022-06-14

    Abstract: 本发明涉及一种基于通道自监督的在线知识蒸馏方法,包括:粗粒度特征提取步骤:将数据进行归一化处理后的输出结果output分别输入到两个网络模型中进行特征提取;自监督学习步骤:将经过粗粒度特征提取步骤后的特征图输入到样本多样性模块中进行特征转换操作,对数据输出不同的联合标签;在线动态蒸馏步骤:通过对两个网络模型分别设置一个动态系数对具有同样特征转换的分支之间进行相互学习,不断优化两个网络多样性模块的权重,并在损失函数值最小时输出输入样本的标签。本发明随着样本、网络和分支多样性的增强,样本数据量变大,人工标注标签任务繁琐,在知识蒸馏中加入自监督学习,使其不需要人工干预,可以降低成本和资源。

    图像分类模型训练方法、图像分类方法及相关装置

    公开(公告)号:CN114972791B

    公开(公告)日:2025-04-25

    申请号:CN202210626206.X

    申请日:2022-06-02

    Abstract: 本发明的实施例提供了一种图像分类模型训练方法、图像分类方法及相关装置,涉及图像处理领域。首先,获取原始图像及原始图像的类型标签;将原始图像输入预先构建的图像分类模型,图像分类模型包括特征提取网络和类型预测网络,特征提取网络包括N个依次串联的卷积层;再利用特征提取网络对原始图像进行特征提取,得到第N个所述卷积层输出的第一特征图和第N‑1个卷积层输出的第二特征图;基于第一特征图、类型标签和预设的多个二值掩码,生成第一训练集,基于第二特征图、类型标签和多个二值掩码,生成第二训练集;最后,利用第一训练集和第二训练集对类型预测网络进行训练,得到训练后的图像分类模型,从而减少模型训练过程产生的额外开销。

    一种丰富数据模式的数据增强方法

    公开(公告)号:CN116091860A

    公开(公告)日:2023-05-09

    申请号:CN202211492454.6

    申请日:2022-11-25

    Abstract: 本发明涉及一种丰富数据模式的数据增强方法,包括:将每个样本图像框选一个与样本图像大小一样的图像框,将样本图像朝图像框某一个方向移动,且移动的距离小于移动方向上样本图像的长度;将移出图像框外的图像信息作为填充部分重新填充会完成图像移动步骤后图像框中的空白区域,与图像框内的图像信息构成跟原始样本图像大小相同的新样本图像,实现样本数据的增强。本发明通过简单有效地操作,产生新的训练样本,可以在已有的数据增强方法上无缝叠加,能在已有的数据增强方法产生的样本基础上,生成更多的新的训练样本,而更多的训练样本意味着训练数据集具有更为丰富的数据模式,从而提高网络模型的性能,以及网络模型的鲁棒性和泛化性。

    图像分类模型训练方法、图像分类方法及相关装置

    公开(公告)号:CN114972791A

    公开(公告)日:2022-08-30

    申请号:CN202210626206.X

    申请日:2022-06-02

    Abstract: 本发明的实施例提供了一种图像分类模型训练方法、图像分类方法及相关装置,涉及图像处理领域。首先,获取原始图像及原始图像的类型标签;将原始图像输入预先构建的图像分类模型,图像分类模型包括特征提取网络和类型预测网络,特征提取网络包括N个依次串联的卷积层;再利用特征提取网络对原始图像进行特征提取,得到第N个所述卷积层输出的第一特征图和第N‑1个卷积层输出的第二特征图;基于第一特征图、类型标签和预设的多个二值掩码,生成第一训练集,基于第二特征图、类型标签和多个二值掩码,生成第二训练集;最后,利用第一训练集和第二训练集对类型预测网络进行训练,得到训练后的图像分类模型,从而减少模型训练过程产生的额外开销。

Patent Agency Ranking