基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法

    公开(公告)号:CN108345850B

    公开(公告)日:2021-06-01

    申请号:CN201810103800.4

    申请日:2018-02-01

    Abstract: 本发明公开了一种基于超像素的笔画特征变换和深度学习的区域分类的场景文本检测方法,所述方法包括如下步骤:一、字符区域提取:(一)基于超像素的笔画特征变换:(1)超像素分割和聚类;(2)删除背景区域;(3)区域细化;(二)基于深度学习的区域分类:(1)特征提取;(2)特征融合;(3)区域分类;二、文本区域检测:(1)候选文本区域生成;(2)候选文本区域分类。本发明的方法不仅可以实现自然场景中不同大小的文本检测,而且可以实现自然场景中不同颜色的文本检测,包括与背景颜色接近的文本,还可以实现复杂背景下的文本检测,如栅栏、窗户等场景中的文本检测。

    基于文本显著性的场景文本检测方法

    公开(公告)号:CN106778757B

    公开(公告)日:2019-06-04

    申请号:CN201611137890.6

    申请日:2016-12-12

    Abstract: 本发明公开了一种基于文本显著性的场景文本检测方法,该方法包括如下步骤:初始文本显著性检测、文本显著性细化和文本显著性区域分类。在初始文本显著性检测阶段,设计了用于文本显著性检测的CNN模型,该模型能从图像中自动学习能够表征文本内在属性的特征并得到对文本有意识的显著性图。在文本显著性细化阶段,设计了文本显著性细化CNN模型用来对粗糙的文本显著性区域进行进一步文本显著性检测。在文本显著性区域分类阶段,使用文本显著性区域分类CNN模型过滤非文本区域,并得到最终的文本检测结果。本发明通过在场景文本检测过程中引入显著性检测,能有效地检测场景中的文本区域,提高场景文本检测方法的性能。

    基于卷积神经网络的区域和像素级融合的显著性检测方法

    公开(公告)号:CN106157319B

    公开(公告)日:2018-11-02

    申请号:CN201610604732.0

    申请日:2016-07-28

    Abstract: 本发明公开了一种基于卷积神经网络的区域和像素级融合的显著性检测方法,该方法研究的对象是静态图像,其中图像的内容可以是任意的,研究的目标是从图像中找出吸引人眼注意力的目标,并为其赋予不同的显著性值。本发明主要提出了一种自适应的区域生成技术,并设计了两个CNN网络结构,分别用于像素级显著性预测和显著性融合。这两个CNN网络模型以图像作为输入,以图像的真实结果作为监督信号用于网络模型的训练,并最终输出与输入图像大小一致的显著性图。本发明能有效地进行区域级显著性估计和像素级显著性预测,得到两个显著性图,最后使用进行显著性融合的CNN将两个显著性图及原始图像进行融合得到最终的显著性图。

    基于多特征模型的视网膜中央凹检测方法

    公开(公告)号:CN106599804A

    公开(公告)日:2017-04-26

    申请号:CN201611086625.X

    申请日:2016-11-30

    CPC classification number: G06K9/0061

    Abstract: 本发明公开了一种基于多特征模型的视网膜中央凹检测方法,所述视网膜中央凹检测方法包括以下步骤:一、全局先验特征提取,二、局部先验特征提取,三、深度特征提取,四、建立融合多特征的中央凹检测模型,通过提取中央凹的全局、局部以及深度特征信息并进行有效融合,完成对视网膜中央凹的精确检测。本发明可以有效克服眼底光照噪声、眼底病变以及异常血管分布对中央凹自动检测的影响,提高中央凹检测的精度和鲁棒性,从而为基于视网膜图像的身份识别提供更加稳健的身份特征信息。

    移动互联网掌纹身份认证方法

    公开(公告)号:CN103793642A

    公开(公告)日:2014-05-14

    申请号:CN201410074050.4

    申请日:2014-03-03

    Inventor: 邬向前 卜巍

    Abstract: 本发明提供一种移动互联网掌纹身份认证方法,分为注册和识别两个阶段。在注册阶段,通过智能移动设备自带的摄像头获取待注册用户的掌纹图像,并通过网络上传到服务器,服务器端经过手掌定位与感兴趣区域提取、掌纹特征提取等一系列算法,将该用户的信息存储于数据库中。在认证阶段,通过智能移动设备自带的摄像头获取用户的掌纹图像,并上传到服务器,服务器端通过同样的算法得到待认证用户的掌纹特征,与数据库中存储的掌纹特征进行匹配,进而判断该用户是否为已注册用户。本方法既摆脱了传统掌纹识别不便携的缺点,又不受智能移动设备硬件性能的限制,同时由于算法的核心部署在服务器上,增强了系统的安全性,大大扩展了掌纹识别的应用领域。

    基于能量最小化框架的文档图像倾斜度检测与纠正方法

    公开(公告)号:CN103400130A

    公开(公告)日:2013-11-20

    申请号:CN201310321375.3

    申请日:2013-07-22

    Abstract: 本发明提出了一种基于能量最小化框架的文档图像倾斜度检测和纠正方法,该方法的研究对象为机打文档图像,文档图像中的内容可以是文字、表格、图片等。本发明首先需要使用扫描仪将文档扫描成电子文档图像,然后估算前景像素状态信息,然后利用前景像素状态信息构建能量函数,然后利用图像处理技术和直线拟合技术计算初始的倾斜度,最后进行能量最小化过程得到最终的倾斜度并将文档图像进行纠正。本发明能适用于多种不同类型的文档,使得倾斜度检测更加精确,在保证精度的同时也提高了倾斜度检测的速度。

    基于小波的特定尺度循环反馈网络的糖网病变分割方法

    公开(公告)号:CN118334346A

    公开(公告)日:2024-07-12

    申请号:CN202410580883.1

    申请日:2024-05-11

    Inventor: 邬向前 卜巍 李萱

    Abstract: 本发明公开了一种基于小波的特定尺度循环反馈网络的糖网病变分割方法,所述方法基于小波的特定尺度循环反馈网络进行糖网病变分割,所述网络采用编码器‑解码器结构,其中:编码器利用EfficientNet‑B1作为主干网络从输入图像中提取多尺度特征;解码器由基于小波的反馈金字塔模块、特定尺度的细化模块和多尺度特征聚合器三个部分组成。本发明将迭代反馈机制引入到糖网病变分割任务中来,递归地利用反馈来细化多尺度特征,获得更好的聚合多尺度特征表示,以实现准确的糖网病变分割。本发明填补了在糖网病变分割技术中的对多尺度特征细化方法研究的空白。

    基于链式多尺度全卷积网络的显著性目标检测方法

    公开(公告)号:CN107784308B

    公开(公告)日:2020-04-03

    申请号:CN201710930183.0

    申请日:2017-10-09

    Abstract: 本发明公开了一种基于链式多尺度全卷积网络的显著性目标检测方法,所述方法步骤如下:对于一张图片I,先将其调整成不同尺度的一系列图片:{I1,I2,···,Im}作为多个SSFCN的输入;不同尺度的SSFCNi‑1对应的输入为X={I1,I2,···,Im},输出为Y={M1,M2,···,Mm},传到下一个SSFCN网络的状态S={S1,S2,···,Sm};将SSFCNi‑1的输出大小调整到Ii的大小与Ii一起作为SSFCNi的输入,将SSFCNi‑1的最后一个反卷积层的输出大小调整到Ii的大小和SSFCNi‑1的最后一个反卷积层的输出进行融合;将所有SSFCN的结果调整到与输入图像I相同大小,用一个简单的卷积网络整合得到最终的显著性图像。本发明可以很好的进行显著性目标检测,并在多个数据库上取得了最好的结果。

    基于金字塔特征注意的图像显著性检测方法

    公开(公告)号:CN110084249A

    公开(公告)日:2019-08-02

    申请号:CN201910336001.6

    申请日:2019-04-24

    Inventor: 邬向前 卜巍 赵婷

    Abstract: 本发明公开了一种基于金字塔特征注意的图像显著性检测方法,所述方法针对深度卷积神经网络的不同层次特征,使用多种注意力机制,获取更加有效的图像显著性特征。本发明的方法可以很好的进行显著性目标检测,并在多个数据库上取得了最好的结果。本发明整个过程利用一个神经网络进行图像显著性检测,运用注意力机制获取有效的多尺度多层次信息,并使用特别的边缘保持损失函数监督显著性边缘部分的生成。较现有的图像显著性检测方法,在不需要后处理的情况下,显著性图像边缘清晰,具有良好的鲁棒性。

    基于链式多尺度全卷积网络的显著性目标检测方法

    公开(公告)号:CN107784308A

    公开(公告)日:2018-03-09

    申请号:CN201710930183.0

    申请日:2017-10-09

    Abstract: 本发明公开了一种基于链式多尺度全卷积网络的显著性目标检测方法,所述方法步骤如下:对于一张图片I,先将其调整成不同尺度的一系列图片:{I1,I2,···,Im}作为多个SSFCN的输入;不同尺度的SSFCNi-1对应的输入为X={I1,I2,···,Im},输出为Y={M1,M2,···,Mm},传到下一个SSFCN网络的状态S={S1,S2,···,Sm};将SSFCNi-1的输出大小调整到Ii的大小与Ii一起作为SSFCNi的输入,将SSFCNi-1的最后一个反卷积层的输出大小调整到Ii的大小和SSFCNi-1的最后一个反卷积层的输出进行融合;将所有SSFCN的结果调整到与输入图像I相同大小,用一个简单的卷积网络整合得到最终的显著性图像。本发明可以很好的进行显著性目标检测,并在多个数据库上取得了最好的结果。

Patent Agency Ranking