-
公开(公告)号:CN119180764A
公开(公告)日:2024-12-24
申请号:CN202411224381.1
申请日:2024-09-03
Applicant: 厦门大学
Abstract: 本发明提供一种免数据标注和网络训练的场景文本消除方法,所述方法包括:在预训练扩散去噪模型反演过程中进行层次化文本定位,通过从原图中获取第一文本区域的掩膜,对第一文本区域对应的原图进行裁剪与放大得到复数个子图,再从子图中获取得到第二文本区域的掩膜,对子图进行2‑均值聚类得到子图子区域并计算出第三文本区域的掩膜;在对反演得到的潜空间噪声进行重建之前,预先将其文本区域用随机高斯噪声进行破坏得到处理后的潜空间图;将处理后的潜空间图输入到预训练扩散去噪模型中对背景区域进行自动恢复得到文本消除后的图像。本发明方法可在无训练和数据集标注的前提下完成文本定位、文本破坏、背景恢复等流程,提高了图像处理效率。