-
公开(公告)号:CN112069769A
公开(公告)日:2020-12-11
申请号:CN201910440039.8
申请日:2019-05-24
Applicant: 北京大学
IPC: G06F40/109
Abstract: 本发明提出一种针对特效字的智能字效迁移方法,包括以下步骤:利用训练数据集,训练遮罩提取子网络进行装饰元素遮罩的提取,训练基础特效迁移子网络进行基础文字特效迁移;将带有装饰元素的特效字Dy和其配对字形图片Cy到训练好的遮罩提取子网络中,得到装饰元素遮罩My;将Dy及其配对字形图片Cy、目标字形图片Cx输入到训练好的基础特效迁移子网络中,得到基础特效迁移和装饰元素消除的结果Sx;利用My,Cy和Cx进行元素重组,将装饰元素融合在Sx上,得到目标字形对应的迁移后的带有装饰元素的特效字Dx。本方法能够在迁移文字特效的同时迁移其装饰元素,且不会导致装饰元素的丢失和扭曲。
-
公开(公告)号:CN110097615A
公开(公告)日:2019-08-06
申请号:CN201811487971.8
申请日:2018-12-06
Applicant: 北京大学
Abstract: 本发明为一种联合风格化和去风格化的艺术字编辑方法和系统,属于图像纹理合成技术领域。该方法的步骤包括:构造字形编码器,字形解码器,字效编码器,字效解码器,字形判别器和字效判别器,组成联合网络结构。在训练阶段,对网络从字形编解码,艺术字图片去风格化和文字图片风格化三个方面进行训练。在测试阶段,网络可以完成三个任务:去风格化,即输入艺术字图片,得到对应的文字图片;风格化,即输入参考艺术字图片和目标文字图片,得到对应的艺术字图片;风格创造:使用字效编码器对多种参考字效编码,对编码结果进行加权平均,解码后得到全新的字效。本发明通过联合考虑字形编解码、风格化和去风格化,能够生成高质量的艺术字图片。
-
公开(公告)号:CN106327422B
公开(公告)日:2019-05-07
申请号:CN201510379988.1
申请日:2015-07-01
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T3/00
Abstract: 本发明提供了一种图像风格化重建方法及装置,该方法包括:获取待转换的输入图像的第一边缘图像,以及目标风格图像的第二边缘图像;获取第一边缘图像的每一第一图像块的相似图像块集合,该每一相似图像块集合中的元素为与该第一图像块相似的第二图像块;根据所有的第一图像块,获取输入图像字典以及稀疏分解的稀疏系数;根据所有第一图像块对应的相似图像块集合,获取目标图像字典;根据所述输入图像字典、目标图像字典、稀疏系数,获得重建出所述输入图像的目标风格的第三图像;将第三图像和预先生成的初始化风格图像融合,得到用于输出的所述输入图像的重建风格化图像。上述方法及装置用以解决现有技术中图像风格化重建时无外部训练集的问题。
-
公开(公告)号:CN105096299B
公开(公告)日:2019-02-26
申请号:CN201410193194.1
申请日:2014-05-08
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
Abstract: 本发明提出了一种多边形检测方法和一种多边形检测装置,其中,多边形检测方法包括:获取输入图像的边缘图像;从所述边缘图像中提取出多条待选直线;将所述多条待选直线进行分组,每组包含n条边,并计算所述n条边的n个交点,将所述n个交点作为n边形的候选顶点;对所述输入图像进行角点检测,获取一组与所述角点相似度最大的候选顶点,以作为所述n边形的顶点。本发明在检测多边形时同时考虑直线和角点,能够对图像中的多边形进行准确检测,从而提高了检测目标多边形的准确性。
-
公开(公告)号:CN108573470A
公开(公告)日:2018-09-25
申请号:CN201710134639.2
申请日:2017-03-08
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T3/40
Abstract: 本发明提供一种图像拼接方法及装置,通过获取背景图像与自拍图像中任意两张之间的对应点,并由对应点的颜色信息、状态信息、平均颜色信息获取每一背景图像及自拍图像的光照变换系数,根据光照变换系数统一背景图像及自拍图像的光照,再通过仿射变换将颜色调整后的背景图像对齐到颜色调整后的自拍图像,再经过图像拼接,实现自拍图背景的扩展。本实施例提供的图像拼接方法,保证了在背景图像和自拍图像光照条件不一致情况下实现图像拼接,其拼接后的图像具有较好的连续性和一致性,提高了拼接图像的视觉质量。
-
公开(公告)号:CN108305235A
公开(公告)日:2018-07-20
申请号:CN201710021329.X
申请日:2017-01-11
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
Abstract: 本发明提供一种多张图片融合的方法及装置,方法包括:确定包含有人物图像的第一图片和至少一张包含有第一图片中的至少部分背景图像的第二图片的光照属性,根据光照属性从第一图片和至少一张第二图片中确定一张目标图片,将非目标图片的光照属性转换为与目标图片相一致,并对第一图片和至少一张第二图片中相同的特征点的位置进行标记,基于相同的特征点的位置,将第一图片和至少一张第二图片进行重合,对重合区域的像素点进行选取,形成融合后的图片。本发明解决了现有技术获得的自拍图片中人像占的比例远大于背景所占的比例,导致图片中的背景图像显示不出自拍者所处的完整场景的问题。
-
公开(公告)号:CN105989584A
公开(公告)日:2016-10-05
申请号:CN201510045335.X
申请日:2015-01-29
Applicant: 北京大学 , 北大方正集团有限公司 , 北京北大方正电子有限公司
IPC: G06T5/50
Abstract: 本发明提供了一种图像风格化重建的方法和装置。该方法包括:获取多对相同场景的源风格图像和目标风格图像;根据多对相同场景的源风格图像和目标风格图像,获取源训练集Y和目标训练集X;对源训练集Y和目标训练集X分别进行训练,确定源风格字典Dy,目标风格字典Dx以及源训练集Y对应的稀疏系数αy和目标训练集X对应的稀疏系数αx之间的映射关系根据源风格字典Dy,目标风格字典Dx以及映射关系M,采用稀疏表示的方法对待处理的源风格图像y′进行重建,获取与待处理的源风格图像y′对应的目标风格图像x′。实现了任意风格的源风格图像到任意风格的目标风格图像的重建,重建的准确性高。
-
公开(公告)号:CN119887550A
公开(公告)日:2025-04-25
申请号:CN202411823199.8
申请日:2024-12-11
Applicant: 北京大学
IPC: G06T5/60 , G06T5/70 , G06T5/77 , G06T3/4053 , G06T3/4038 , G06T3/4046 , G06T11/60 , G06N3/045
Abstract: 本发明公开了一种具有周期性的清晰图像生成方法。将待使用扩散模型的注意力机制修改为聚焦注意力机制并输入文本提示词;在扩散模型的特征空间中生成图像的中心区域,并限制注意力至所述中心区域;采样所述中心区域,并在其外围重复复制拼接,直至设定的步数,得到初始图案;使用上采样技术提高图像的分辨率;使用图像编辑技术在文本提示词的引导下修复图像并增添细节,生成满足目标分辨率要求的所述清晰图像。本发明提高了在印染纹样设计领域图像生成模型的可用性,使得能够生成高质量风格化纹样,并且显著降低生产成本。
-
公开(公告)号:CN109493399B
公开(公告)日:2023-05-02
申请号:CN201811068309.9
申请日:2018-09-13
Applicant: 北京大学
Abstract: 本发明公开一种图文结合的海报生成方法和系统。该方法的步骤包括:给定一张目标文字,一张风格图片和一张背景图片,首先自动确定目标文字放置在背景图片的位置;然后对风格图片进行前背景分割;接着根据风格图片的前景的轮廓调整目标文字的轮廓;最后在调整后的目标文字的结构引导下和背景图片的像素约束下,将风格图片中的图像块填入目标文字在背景图片的放置区域内部,从而将带有风格图片的风格的文字即艺术字,嵌入到背景图片中,进行图片和文字的结合,全自动地生成一张艺术性的海报。本发明通过考虑多种因素自动确定文字在背景图片的最佳位置;同时考虑轮廓调整和文字的结构与背景图片的像素约束,使得生成的海报具有更好的主观视觉质量。
-
公开(公告)号:CN112307766A
公开(公告)日:2021-02-02
申请号:CN202010999268.6
申请日:2020-09-22
Applicant: 北京京东世纪贸易有限公司 , 北京沃东天骏信息技术有限公司 , 北京大学第三医院
IPC: G06F40/295 , G06F40/186
Abstract: 本公开的实施例公开了用于识别预设类别实体的方法、装置、电子设备和介质。该方法的一具体实施方式包括:获取待识别文本;获取预设类别实体识别模板,其中,该预设类别实体识别模板中包括至少一种文本匹配结构;利用该预设类别实体识别模板解析该待识别文本,生成待匹配模式串,其中,该待匹配模式串包括文本匹配结构标识序列;根据与该预设类别实体相匹配的预设模式串集合与该待匹配模式串之间的匹配,生成识别结果,其中,该识别结果用于指示该待识别文本中所包含的该预设类别实体。该实施方式实现了既可以保证识别方法的准确性,又提升了效率。
-
-
-
-
-
-
-
-
-