-
公开(公告)号:CN113239961A
公开(公告)日:2021-08-10
申请号:CN202110384686.9
申请日:2021-04-09
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
IPC: G06K9/62 , G06F40/211 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于生成对抗网络的文本生成序列图像的方法,该方法包括:构建训练数据库,训练数据库包括训练文本和与原始图像,利用训练文本和原始图像对生成对抗网络模型进行训练;生成对抗网络模型包括混合生成器和鉴别器,混合生成器包括场景图引导的图像生成器和基于序列条件的图像生成器;将待处理的文本输入至训练后的所述生成对抗网络模型中,由训练后的生成对抗网络模型生成与待处理文本相对应的图像并输出。本发明能够生成与文本描述相匹配的视觉上真实的图像,避免了对象布局混乱的问题,提高了输出图像的准确度。
-
公开(公告)号:CN113239961B
公开(公告)日:2023-10-20
申请号:CN202110384686.9
申请日:2021-04-09
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
IPC: G06T11/60 , G06F40/211 , G06N3/0475 , G06N3/094 , G06V30/19
Abstract: 本发明涉及一种基于生成对抗网络的文本生成序列图像的方法,该方法包括:构建训练数据库,训练数据库包括训练文本和与原始图像,利用训练文本和原始图像对生成对抗网络模型进行训练;生成对抗网络模型包括混合生成器和鉴别器,混合生成器包括场景图引导的图像生成器和基于序列条件的图像生成器;将待处理的文本输入至训练后的所述生成对抗网络模型中,由训练后的生成对抗网络模型生成与待处理文本相对应的图像并输出。本发明能够生成与文本描述相匹配的视觉上真实的图像,避免了对象布局混乱的问题,提高了输出图像的准确度。
-
公开(公告)号:CN112785624B
公开(公告)日:2023-07-04
申请号:CN202110064596.1
申请日:2021-01-18
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
Abstract: 本发明公开了一种基于孪生网络的RGB‑D特征目标跟踪方法,包括以下步骤:构建基于RGB‑D特征的孪生网络模型;模板图像经共享网络处理,获得模板图像的语义特征,将高层语义特征输入至深度卷积网络模块,获得深度图;对深度图进行深度特征提取,获得深度特征信息,通过级联方式将深度特征信息与语义特征进行融合,获得融合后的图像特征;搜索图像经共享网络处理,获得搜索图像的特征,搜索图像的特征经卷积和池化操作,获得搜索图像的上下文信息,通过搜索图像的上下文信息指导融合后的图像特征,生成用于目标定位的自适应特征;将自适应特征与搜索图像通过共享网络处理获得的特征进行互相关操作,对分数图进行插值计算,获得跟踪的结果。其引入深度图,能够实现在复杂场景中高精度跟踪,效果好。
-
公开(公告)号:CN112785624A
公开(公告)日:2021-05-11
申请号:CN202110064596.1
申请日:2021-01-18
Applicant: 苏州科技大学 , 苏州佳图智绘信息技术有限公司
Abstract: 本发明公开了一种基于孪生网络的RGB‑D特征目标跟踪方法,包括以下步骤:构建基于RGB‑D特征的孪生网络模型;模板图像经共享网络处理,获得模板图像的语义特征,将高层语义特征输入至深度卷积网络模块,获得深度图;对深度图进行深度特征提取,获得深度特征信息,通过级联方式将深度特征信息与语义特征进行融合,获得融合后的图像特征;搜索图像经共享网络处理,获得搜索图像的特征,搜索图像的特征经卷积和池化操作,获得搜索图像的上下文信息,通过搜索图像的上下文信息指导融合后的图像特征,生成用于目标定位的自适应特征;将自适应特征与搜索图像通过共享网络处理获得的特征进行互相关操作,对分数图进行插值计算,获得跟踪的结果。其引入深度图,能够实现在复杂场景中高精度跟踪,效果好。
-
-
-