一种基于雾霾特性的图像篡改检测方法

    公开(公告)号:CN106683074A

    公开(公告)日:2017-05-17

    申请号:CN201611020646.1

    申请日:2016-11-21

    Abstract: 本发明涉及一种基于雾霾特性的图像篡改检测方法,其步骤为:1)对输入的篡改图像利用多种求雾霾特性的方法求其雾霾特性,并生成若干个雾霾特性图;2)将生成的若干个雾霾特性图两两相减取绝对值生成若干个特征差异图;3)结合输入图像的超像素划分,根据每个特征差异图将输入的篡改图像进行篡改区域和非篡改区域的分离;4)利用低秩建立篡改区域之间以及非篡改区域之间的相似性,为每个篡改区域和非篡改区域求出一个权重;5)利用求得的权重,将篡改区域和非篡改区域进行加权融合生成篡改区域定位图。本发明能够克服基于JPEG压缩以及基于相机内部特性的拼接篡改检测方法的局限性,检测性能更精准。

    渐近回归边界的任意形状场景文字检测方法及装置

    公开(公告)号:CN113139539A

    公开(公告)日:2021-07-20

    申请号:CN202110280975.4

    申请日:2021-03-16

    Abstract: 本发明公开了一种渐近回归边界的任意形状场景文字检测方法及装置,包括:提取待检测图像的视觉特征,对视觉特征进行特征融合,获取特征表达;将特征表达输入水平建议框生成网络,生成水平文字候选框;将特征表达及水平文字候选框输入方向建议框生成网络,生成方向文字建议框;将特征表达及方向文字建议框输入任意形状文字边界生成网络,获取场景文字检测结果。本发明通过渐近回归能产生更精确及平滑的文字边界,利用边界采样点之间的几何拓扑关系以及语义关系获得更准确点的位置,模型具有更好的泛化性、更有效的执行速度和更强的检测能力。

    一种基于雾霾特性的图像篡改检测方法

    公开(公告)号:CN106683074B

    公开(公告)日:2019-11-05

    申请号:CN201611020646.1

    申请日:2016-11-21

    Abstract: 本发明涉及一种基于雾霾特性的图像篡改检测方法,其步骤为:1)对输入的篡改图像利用多种求雾霾特性的方法求其雾霾特性,并生成若干个雾霾特性图;2)将生成的若干个雾霾特性图两两相减取绝对值生成若干个特征差异图;3)结合输入图像的超像素划分,根据每个特征差异图将输入的篡改图像进行篡改区域和非篡改区域的分离;4)利用低秩建立篡改区域之间以及非篡改区域之间的相似性,为每个篡改区域和非篡改区域求出一个权重;5)利用求得的权重,将篡改区域和非篡改区域进行加权融合生成篡改区域定位图。本发明能够克服基于JPEG压缩以及基于相机内部特性的拼接篡改检测方法的局限性,检测性能更精准。

    自然场景图像中曲线文字的检测识别方法

    公开(公告)号:CN110287960A

    公开(公告)日:2019-09-27

    申请号:CN201910592008.4

    申请日:2019-07-02

    Abstract: 本发明公开了一种自然场景图像中曲线文字的检测识别方法,本方法用于解决曲线文字识别中边界模糊且与背景对比度低的问题,提高曲线文字检测精度。主要步骤包括1)对基于Mask RCNN网络的曲线文字检测网络进行训练,利用训练好的曲线文字检测网络对自然场景图像进行检测,检测出图像中的文字区域;2)利用矫正网络将文字区域的曲线文字矫正成水平文字,输出矫正后图像;3)对曲线文字识别网络进行训练,利用训练好的曲线文字识别网络提取矫正后图像的卷积特征,对卷积特征进行解码,识别出文字。

    一种基于焦点损失函数的自然场景下文字检测定位方法和装置

    公开(公告)号:CN109117836A

    公开(公告)日:2019-01-01

    申请号:CN201810729838.2

    申请日:2018-07-05

    Abstract: 本发明公开一种基于焦点损失函数的自然场景下文字检测定位方法和装置。该方法首先对标注的数据进行预处理,然后构造文本检测定位网络,然后引用聚焦损失函数作为训练过程损失函数的一部分,然后对待检测的自然场景图片进行检测。该方法通过调整现有标注使标注更加适合所设计的文字检测网络;基于FCN网络将多卷积层进行合并,使之更加符合文字检测任务;通过引入聚焦损失函数在训练过程中平衡正负样本,提高检测精度。本发明能够在文字检测定位上取得高精度高召回的效果。

    渐近回归边界的任意形状场景文字检测方法及装置

    公开(公告)号:CN113139539B

    公开(公告)日:2023-01-13

    申请号:CN202110280975.4

    申请日:2021-03-16

    Abstract: 本发明公开了一种渐近回归边界的任意形状场景文字检测方法及装置,包括:提取待检测图像的视觉特征,对视觉特征进行特征融合,获取特征表达;将特征表达输入水平建议框生成网络,生成水平文字候选框;将特征表达及水平文字候选框输入方向建议框生成网络,生成方向文字建议框;将特征表达及方向文字建议框输入任意形状文字边界生成网络,获取场景文字检测结果。本发明通过渐近回归能产生更精确及平滑的文字边界,利用边界采样点之间的几何拓扑关系以及语义关系获得更准确点的位置,模型具有更好的泛化性、更有效的执行速度和更强的检测能力。

    一种基于焦点损失函数的自然场景下文字检测定位方法和装置

    公开(公告)号:CN109117836B

    公开(公告)日:2022-05-24

    申请号:CN201810729838.2

    申请日:2018-07-05

    Abstract: 本发明公开一种基于焦点损失函数的自然场景下文字检测定位方法和装置。该方法首先对标注的数据进行预处理,然后构造文本检测定位网络,然后引用聚焦损失函数作为训练过程损失函数的一部分,然后对待检测的自然场景图片进行检测。该方法通过调整现有标注使标注更加适合所设计的文字检测网络;基于FCN网络将多卷积层进行合并,使之更加符合文字检测任务;通过引入聚焦损失函数在训练过程中平衡正负样本,提高检测精度。本发明能够在文字检测定位上取得高精度高召回的效果。

    一种基于深度学习的自然场景下文字检测定位方法

    公开(公告)号:CN107346420A

    公开(公告)日:2017-11-14

    申请号:CN201710463101.6

    申请日:2017-06-19

    Abstract: 本发明提供一种基于深度学习的自然场景下文字检测定位方法。基于Faster R-CNN的RPN(多层卷积神经网络),根据文字的特征信息,改变RPN中的anchor大小以及回归方式,并加入RNN网络层对图片上下文信息进行分析,构造一个能够有效地检测出文字的文字检测网络。另外,本发明采用聚类方法,设定anchor的大小。特别地,本发明使用困难样本挖掘进行级联训练,能够减少对于文字的误检率。在测试方面,本发明采用级联测试的方法,最终,准确高效的实现文字的定位。

    基于姿态信息的人-物关系检测方法及装置

    公开(公告)号:CN117975328A

    公开(公告)日:2024-05-03

    申请号:CN202410030911.2

    申请日:2024-01-09

    Abstract: 本发明针对自然场景中的视频,提出了一种基于姿态信息的人‑物关系检测方法及装置。该方法的框架主要包含三个模块:关系特征提取、姿势表示建模和关系‑姿态变换器。首先将视频剪辑输入关系特征提取模块以获得对象级特征及其关系特征。同时,还将视频片段送入姿势特征提取模块,生成头部姿势特征和身体姿势特征。然后,关系‑姿态变换器将物体、关系和姿势特征作为输入来生成关系的时空交互表示。最后,利用三个分类器来预测注意力关系、空间关系和接触关系,以构建以人为中心的图。本发明对于各种复杂场景下的人‑物关系检测均具有优秀的性能。

Patent Agency Ranking