一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法

    公开(公告)号:CN108416382B

    公开(公告)日:2022-04-19

    申请号:CN201810171017.1

    申请日:2018-03-01

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于迭代采样和一对多标签修正的Web图像训练卷积神经网络方法。该方法的目的是通过在训练集中逐步地加入Web图像来解决使用深度学进行计算机视觉任务时数据不足的问题。这种新的方法可以作为计算机视觉各种任务的辅助处理步骤,其关键在于随着模型的训练,更新的模型将能更准确地对Web图像的标签置信度进行预测,然后通过对比把高质量的数据加入到训练数据中继续提升模型的性能,最终可以有效地减少Web数据中的噪声数据并提升卷积神经网络的性能。同时考虑到Web图像内容的复杂性和多样性,本方法在迭代过程采用了一对多的标签修正策略来减少硬标注对模型训练带来的影响。基于以上的步骤,整个模型迭代训练直到网络的性能趋于稳定。

    一种基于深度网络的多类型任务通用的检测方法

    公开(公告)号:CN108428238B

    公开(公告)日:2022-02-15

    申请号:CN201810173285.7

    申请日:2018-03-02

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于深度网络的多类型任务通用的检测方法,属于图像处理技术领域。包含如下步骤:a.分别选择上述三种任务所需要的训练图片;b.在相同的网络结构下设计完成需要的模型参数和网络初始参数;c.设计需要优化的损失函数,并利用深度预测模型和物体检测模型得到其具体表示;d.优化调整初始模型的参数,最终得到分别符合三种要求的具有统一结构的检测模型参数;e.利用训练好的模型对任意输入的自然场景图片得到显著性物体检测、骨架提取、边缘检测三种图像处理结果。本方法能够在一个统一的网络结构下完成三种截然不同的图像处理任务,此方法具有良好的通用性和可移植性,同时达到了良好的检测效果。

    一种基于差异注意力神经网络的多级别变化检测方法

    公开(公告)号:CN112861931A

    公开(公告)日:2021-05-28

    申请号:CN202110083681.2

    申请日:2021-01-21

    Applicant: 南开大学

    Abstract: 本公开提供了一种基于差异注意力神经网络的多级别变化检测方法,基于多时序图像融合技术,由自底向上网络、差异引导的注意力模块、自顶向下网络构成,差异引导的注意力模块包含两个串联的分支,分别是双时序聚合分支和差异注意力分支,前者用于学习双时序图像间的全局变化信息,后者用于探索图像间多级别变化的局部关系,提高不同变化的判别能力;本公开改进了U型网络结构中自底向上和自顶向下之间的特征学习过程,不仅保留了每个输入特征图的空间尺寸,而且实现了双时序图像间全局和局部差异信息的学习,可同时完成建筑物的分割和多级别损毁检测两个任务,显著提高了变化检测的效率和效果。

    一种基于注意力机制和多层次卷积特征的植物病虫害识别方法

    公开(公告)号:CN110188635B

    公开(公告)日:2021-04-30

    申请号:CN201910404278.8

    申请日:2019-05-16

    Applicant: 南开大学

    Abstract: 一种基于注意力机制和多层次卷积特征的植物病虫害识别方法。该方法的目的是结合注意力机制和多层次卷积特征进行自然场景下的植物病虫害图像分类,其关键是解决了自然场景图像中大面积的复杂背景对植物病虫害识别的干扰问题,并充分地利用了网络模型中所有的卷积层特征。该方法设计了一种包含注意力机制的深度卷积神经网络,利用注意力机制生成图像中覆盖了目标空间位置的局部位置区域掩码,用于减弱自然场景图像下的复杂背景干扰信息,并结合多层次卷积特征,充分利用语义信息和细节信息,对植物病虫害进行更具有区分性的特征表示。最终将得到的模型用于自然场景下的植物病虫害图像分类,得到的局部区域掩码用于获取植物病虫害的位置信息。

    基于多层次上下文信息融合的显著性物体检测方法

    公开(公告)号:CN109766918B

    公开(公告)日:2021-04-30

    申请号:CN201811547592.3

    申请日:2018-12-18

    Applicant: 南开大学

    Inventor: 程明明 刘云

    Abstract: 一种基于多层次上下文信息融合的显著性物体检测的方法。该方法的目的是构造并利用多层级的上下文特征进行图像显著性检测。该方法设计了一种新的卷积神经网络架构,这种新的卷积神经网络架构以由高层卷积至底层卷积的方式进行优化,从而为图像提取不同尺度上的上下文信息,将这些上下文信息进行融合可以获得高质量的图像显著性图。使用该方法检测出的显著性区域,可以用来辅助其他视觉任务。

    一种针对医学图像的多模式交互分割方法及系统

    公开(公告)号:CN112542230A

    公开(公告)日:2021-03-23

    申请号:CN202011537199.3

    申请日:2020-12-23

    Applicant: 南开大学

    Abstract: 本发明公开一种针对医学图像的多模式交互分割方法及系统,包括:提取医学图像的图像特征;采用多模式包围框选定目标分割区域后生成初始交互指导图,将初始交互指导图与图像特征拼接后输入神经网络得到初始分割结果;采用多模式细节修复指导图对初始分割结果进行修复后得到残差图;根据残差图、多模式细节修复指导图对应的修复范围以及初始分割结果得到最终的医学图像分割结果。是一种用于解决医学图像分割多歧义性的多模式交互方法,可以根据图像结构的复杂性以各种初始交互方式围绕目标区域,基于初始分割可以共同利用区域和边界相互作用来细化由不同歧义引起的标注错误的区域,有效提高医学图像分割精度。

    基于卷积神经网络的类激活映射目标定位方法及系统

    公开(公告)号:CN112465909A

    公开(公告)日:2021-03-09

    申请号:CN202011416095.7

    申请日:2020-12-07

    Applicant: 南开大学

    Abstract: 本发明公开了基于卷积神经网络的类激活映射目标定位方法及系统,将待处理图像输入到训练后的卷积神经网络中,根据类别信息进行反向传播,得到网络中每个卷积层的每个特征图对应的梯度;每个卷积层均输出一个特征图;每个特征图包括C个子特征图;每个子特征图均有一一对应的梯度;从卷积神经网络中选定M个卷积层,对所述M个卷积层中的每个卷积层所提取的C个子特征图与权重进行相乘处理;其中,权重为子特征图所对应的梯度;将相乘处理结果输入到非线性的ReLU函数中,对ReLU函数输出值进行通道维度上的求和操作,每个被选定的卷积层均得到一个对应的类激活映射图,即得到M个类激活映射图;对M个类激活映射图进行融合,得到定位图。

    RGBD显著性检测方法以及相关装置

    公开(公告)号:CN111832592A

    公开(公告)日:2020-10-27

    申请号:CN201910328103.3

    申请日:2019-04-20

    Abstract: 本申请提供了RGBD显著性检测方法及装置,方法包括:将RGB图像和深度图像导入到含多个特征提取模块和多个特征强化模块的神经网络模型处理,获得多个跨模态特征图;其中任意的特征提取模块用于对输入数据进行特征提取以获得该特征提取模块的处理结果;其中任意的特征强化模块用于对深度图像进行特征提取获得深度对比度增强图,并利用其优化特征提取模块的处理结果,以获得该特征强化模块的跨模态特征图。最后,利用金字塔模型对多个跨模态特征图进行融合获得显著性检测的检测结果图。实施本申请有利于在低对比度等复杂场景下取得较好的显著性检测效果。

    基于正则化稠密连接特征金字塔的实例显著性检测方法

    公开(公告)号:CN111598841A

    公开(公告)日:2020-08-28

    申请号:CN202010328784.6

    申请日:2020-04-23

    Applicant: 南开大学

    Abstract: 一种基于正则化稠密连接特征金字塔的实例显著性检测的方法。该方法的目的是构造稠密连接的特征金字塔来进行图像实例级显著性检测。该方法设计了一种新的卷积神经网络模型,这种新的卷积神经网络模型通过构建该发明提出的正则化的稠密连接在原有特征金字塔的基础上构造一个新的特征金字塔。稠密连接为构建新特征金字塔提供了更多的低层级特征,而正则化操作在稠密连接提供更多低层级特征的情况内更好地提取其中的有用信息而刨除无用信息。此外,利用多级RoIAlign方法进行特征聚合可以更精确地对实例进行分割。使用该方法检测出的显著性实例,可以用于重要目标分割、自适应图像压缩、图像检索等应用领域。

    一种基于多尺度受约束自注意机制的视频显著性物体检测的方法

    公开(公告)号:CN111242003A

    公开(公告)日:2020-06-05

    申请号:CN202010024556.X

    申请日:2020-01-10

    Applicant: 南开大学

    Abstract: 本发明公开了一种基于多尺度受约束自注意机制的视频显著性物体检测方法。该方法采用了受约束注意力机制,即度量询问元素和视频片段中若干帧在其周围约束区域的相似性生成注意力图,并通过该注意力图作为权重,加权收集若干帧在其周围约束区域的特征信息加强询问元素的特征。同时,利用多分支技术,使每个受约束注意力分支的采样在不同的尺度范围,构成的多尺度受约束自注意机制可以适用于不同尺度大小的输入。该方法成功地利用了视频片段中帧间元素间的视觉联系,从而解决了视频间显著性物体的运动建模。基于该方法构建的视频显著性目标检测系统可以达到极快的检测速度和较高的检测精度。

Patent Agency Ranking