一种基于深度学习的盐体语义分割方法及语义分割模型

    公开(公告)号:CN110930409A

    公开(公告)日:2020-03-27

    申请号:CN201910998936.0

    申请日:2019-10-18

    Abstract: 本发明公开了一种基于深度学习的盐体语义分割方法及语义分割模型,采用预处理模型做基础模型进行特征提取,得到的特征图经过分类监督模块预测图片有盐与否作为辅助监督加速收敛,同时监督盐体分割分支模块输出的含盐图片分割结果和整体分割分支模块输出的所有图片分割结果,边缘预测模块输出边缘预测结果,组成混合损失有效提高盐体分割精度,最终得到较好的语义分割结果。语义分割模型中每级上采样的特征图经过特征融合模块,将每级上采样的特征图与上一级上采样特征图级联,这样逐级加强特征通道信息的密集获取,更好的利用每级上采样的特征图信息,更好的融合高层的语义信息和底层的空间信息。

    基于少量标注框的深度图像协同分割方法

    公开(公告)号:CN110675421A

    公开(公告)日:2020-01-10

    申请号:CN201910813756.0

    申请日:2019-08-30

    Abstract: 本发明公开了一种基于少量标注框的深度图像协同分割方法,属于图像处理领域。本发明提出了一种基于卷积神经网络的深度图像协同分割网络,仅利用图像级标签和少量人工标注框实现图像协同分割的方法。该方法不仅考虑了图像的内在信息,而且结合卷积神经网络提取的深度语义特征利用了图像之间的相关性,使得在弱监督学习情况下,图像也能得到更加准确的分割结果。

    一种基于条件生成对抗网络的选择分割图像合成方法

    公开(公告)号:CN110675353A

    公开(公告)日:2020-01-10

    申请号:CN201910820033.3

    申请日:2019-08-31

    Abstract: 本发明公开了一种基于条件生成对抗网络的选择分割图像合成方法,属于图像合成技术领域。本发明结合条件生成对抗网络的典型图像生成架构,将图像分割逆应用选择来进行图像间对象和背景的语义合成,为获取待合成目标d,将输入图像及其对应匹配的图像掩膜进行实例分割后,将待合成目标d作为约束条件变量和高斯随机噪声z联合输入到生成网络G中,生成的图像G(z|d)包含对象d,再和背景目标训练集t输入到判别网络D中,将训练集t中的背景和生成图像G(z|d)进行语义合成,再根据二元极小值极大博弈目标函数来提高生成网络G和判别网络D的性能,以合成质量高、符合人类感知的有意义图像。

    一种改进的平行四边形候选框的文本检测方法

    公开(公告)号:CN110674802A

    公开(公告)日:2020-01-10

    申请号:CN201910857582.8

    申请日:2019-09-09

    Abstract: 本发明提出一种改进的平行四边形候选框的文本检测方法,在训练步骤以及检测步骤中,预测特征谱在进入PriorBox层之前先经过偏移学习模块,所述偏移学习模块用于输出预测特征谱以及候选框在Y轴方向的偏移量至PriorBox层;PriorBox层输出的候选框坐标包括矩形候选框坐标与引入偏移的平行四边形候选框;使用平行四边形的候选框来贴近标签GroundTruth,以提升GroundTruth与预测框之间的IoU,从而降低网络回归的困难程度。本发明能准确定位倾斜的长文本,适用于书籍文字识别、然场景下多方向文字识别。

    基于多组k分类的卷积特征谱的图像可判别区域联合提取方法

    公开(公告)号:CN110619358A

    公开(公告)日:2019-12-27

    申请号:CN201910814124.6

    申请日:2019-08-30

    Abstract: 本发明公开了一种基于多组k分类的卷积特征谱的图像可判别区域联合提取方法,属于图像处理领域。本发明基于训练集的图片类型,对于任意类,随机选取k-1类和当前类组成一组,对于每一类分别选取a组;再分别将每组图片输入到预置的卷积神经网络进行卷积神经网络训练,得到多个训练好的卷积神经网络;将待提取图片及其图像级标签输入到图片类型匹配的a个训练好的卷积神经网络中;对于匹配的每个训练好的卷积神经网络,通过加权梯度类激活映射获取该卷积神经网络生成一组可判别区域,融合a组可判别区域得到待提取图片的最终的可判别区域。本发明能够提取出图像更加完整可判别区域,提升现有的提取方法的提取结果的完整性。

    基于区域建议注意力的目标检测方法

    公开(公告)号:CN110619356A

    公开(公告)日:2019-12-27

    申请号:CN201910802929.9

    申请日:2019-08-28

    Abstract: 本发明提供一种基于区域建议注意力的目标检测方法,针对RefineDet特征判别力不足的问题,将ARM生成的有无目标的分类结果特征谱作为区域建议注意力与ODM的多分类特征谱通过点乘的方式进行融合,在优化后的多分类特征谱中突出目标区域的显著性。本发明优化了多分类特征谱的判别力,提升了后续进行的RefineDet目标检测的分类效果,从而有效减少误检、漏检情况,提升目标检测的准确率。相比于现有RefineDet算法,能够在不增加参数的基础上,有效地提升目标检测的分类精度。

    基于部件模板的室内人物检测方法

    公开(公告)号:CN110309792A

    公开(公告)日:2019-10-08

    申请号:CN201910599633.1

    申请日:2019-07-04

    Abstract: 本发明公开了基于部件模板的室内人物检测方法,属于目标检测领域和深度学习领域,首先收集数据集,再对数据集进行特征提取和构建特征金字塔,基于部件模板的子区域得到每个候选框的前景置信分数,并通过池化和全连接层得到定位框位置,完成检测模型的搭建;然后根据数据集的图片采用Xavier方法对检测模型进行初始化,基于检测模型的损失函数进行迭代到预设迭代次数,完成检测模型的训练,最后使用新的图片进行推理测试,得到检测结果。本发明解决了目前通用的目标检测方法在对室内场景的人物检测方面定位和识别的准确率较低的问题。

    基于卷积神经网络的图像分割质量评价方法

    公开(公告)号:CN107123123B

    公开(公告)日:2019-06-25

    申请号:CN201710302338.6

    申请日:2017-05-02

    Abstract: 本发明公开了一种新的基于卷积神经网络的图像分割结果评价方法。分割结果评价具有十分重要的作用,有助于分割方法性能的提升以及分割结果的修复。分割结果评价通常被看作回归问题,而卷积神经网络在回归问题上具有非常好的性能,我们采用卷积神经网络来实现分割评价方法。然而,现有的分割评价方法缺乏一个全面有效的分割结果数据库,并且,适合于分割评价的卷积神经网络还有待研究。基于此,本发明充分挖掘了分割目标前景和背景的特征信息,设计了一种全新的分割质量评价卷积神经网络,通过验证,我们的方法表现出了优异的性能。此外,针对数据库的不足,我们构建了一个新的分割数据库,该数据库具有涵盖多种类型的分割结果及其客观评价指标。

    基于局部纹理特征和全局亮度特征的视频质量评价方法

    公开(公告)号:CN107465914B

    公开(公告)日:2019-03-12

    申请号:CN201710710891.3

    申请日:2017-08-18

    Abstract: 本发明公开一种基于局部纹理特征和全局亮度特征的视频质量评价方法,涉及图像及视频处理技术领域,包括如下步骤:S1:提取网络视频的每一帧图像的局部纹理特征和全局亮度特征;S2:根据每一帧图像的纹理特征和亮度特征进行迟滞帧检测;S3:对检测到的迟滞帧进行总迟滞频次和总迟滞时长的统计;S4:以迟滞频率和迟滞时间的线性组合结果作为预测的视频质量。本发明解决的问题是:(1)用户端无法从接收到的网络流直接判断网络迟滞的位置及时间;(2)传统的视频质量评价方法通过自然场景统计特征提取和回归技术等基于机器学习的方法进行视频质量测度的构建,其计算复杂度高,对计算和存储资源的消耗大。

    一种基于长短期记忆网络的场景文本检测方法

    公开(公告)号:CN109344822A

    公开(公告)日:2019-02-15

    申请号:CN201811018931.9

    申请日:2018-09-03

    Abstract: 本发明公开了一种基于长短期记忆网络的场景文本检测方法。本发明通过使用LSTM对特征建模,得到该位置与其上下左右位置特征的空间上下文联系,再对该特征进行文本检测。本发明所提出的基于长短期记忆网络的场景文本检测方法,相比于传统只使用局部特征的方法能大大减少错误检测,同时还能够检测到很多局部特征不明显的文本信息,减少了文本的遗漏。发明的主要创新点在于使用LSTM对特征进行横向和纵向的建模,得到该位置与其上下左右位置特征的空间上下文联系。相比于传统的场景文本检测算法,该方法能够更有效的检测到局部特征不明显的文本信息,并减少检测错误率,提升检测精度。

Patent Agency Ranking