-
公开(公告)号:CN114821050A
公开(公告)日:2022-07-29
申请号:CN202210382021.9
申请日:2022-04-13
Applicant: 大连理工大学
Abstract: 本发明属于计算机视觉技术领域,提供了一种基于transformer的指称图像分割方法,对于输入的文本和图像,算法要根据输入的文本来对图像中指定的目标进行分割,算法主要由特征提取、跨模态特征融合、跨层级信息整合三个部分组成。本发明可以在视觉特征提取和跨模态融合阶段提取全局和局部信息,在解码器阶段也可以很好地使不同层级的信息进行有效的整合,从而可以让模型根据文本描述来生成性能更好的分割结果。
-
公开(公告)号:CN113052784A
公开(公告)日:2021-06-29
申请号:CN202110301738.1
申请日:2021-03-22
Applicant: 大连理工大学
Abstract: 本发明属于计算机视觉任务下的图像生成领域,提供一种基于多辅助信息下的图像生成方法。本发明首次利用了多种辅助信息指导模型完成图像生成任务,该生成任务分两阶段完成,在第一阶段模型的输入为场景图信息和文本信息的融合特征,以场景图信息为主,文本信息为辅,以GAN网络模型为原型进行图像生成,生成粗略的图像;第二阶段的模型输入为文本信息和第一阶段的输出,目的是通过使用文本信息丰富图像细节,生成高质量的图像。本发明通过使用真实数据集进行训练并评估,同时与目前主流的图像生成模型做对比,评估其性能提升。
-
公开(公告)号:CN117078939A
公开(公告)日:2023-11-17
申请号:CN202311129283.5
申请日:2023-09-04
Applicant: 大连理工大学
IPC: G06V10/26 , G06V10/80 , G06V10/44 , G06V10/776 , G06V10/82 , G06N3/0895 , G06N3/045 , G06N3/0464
Abstract: 本发明属于计算机视觉技术领域,一种基于语义关系挖掘与推理的指称图像分割方法。首先使用文本解析器将输入的文本进行解析,得到文本中的实体和实体之间的关系,并生成对应场景图;再将文本和图像分别输入到文本和视觉编码器编码得到文本和视觉特征,并进行特征融合,得到文本嵌入的视觉特征;再将文本嵌入的视觉特征与场景图共同输入到图卷积模块中进行特征更新;最后利用推理融合模块对图卷积输出和文本嵌入的视觉特征进行最终的融合,并使用对比学习损失函数进行训练,最终得到更精确的分割掩码。本发明利用场景图、图卷积和注意力机制对上下文信息和图像特征进行多次的更深入的融合更新,在多个数据集上进一步提高指称图像分割方法的准确率。
-
公开(公告)号:CN115222600B
公开(公告)日:2023-04-07
申请号:CN202210904585.4
申请日:2022-07-29
Applicant: 大连理工大学 , 辽宁师范大学 , 山东纬横数据科技有限公司 , 中国船舶集团有限公司第七0九研究所
Abstract: 本发明属于计算机视觉的图像处理领域,公开了一种本发明的对比学习多光谱图像超分辨重建方法。该方法的模型分为两个部分:教师模型部分和学生模型部分。教师模型用于输出遥感图像的细节特征,以便给学生模型作为监督,使学生模型能够得到图像的细节信息,从而增加图像的分辨率。此外,在学生模型中增加对比学习模块,将最终输出与真值高分辨图像作为正样本对,将输出与原始输入作为负样本对,使输出更接近高分辨率图像。本发明利用对比学习以及超分辨重建的方法,实现了低分辨率遥感图像转化为高分辨率的清晰遥感图像。同时本方法对于其他图像质量提升有关的视觉任务都具有良好的泛化性,可以作为图像质量提升问题的一种有效的解决方案。
-
公开(公告)号:CN115690516A
公开(公告)日:2023-02-03
申请号:CN202211426843.9
申请日:2022-11-15
Applicant: 大连理工大学
IPC: G06V10/764 , G06N3/0464 , G06N3/08 , G06V10/77 , G06V10/80 , G06V10/82
Abstract: 本发明属于图像检测领域,具体涉及基于多尺度自适应融合的RGB‑D显著目标检测方法。本发明基于早期和中期融合策略和跨模态的多尺度交互的研究,提出一个双流网络,通过跨模态融合编码器在浅、中、深多尺度自适应集成RGB‑D特征。对于第一个问题,区别于传统的在2D空间早期融合RGB‑D图像,本发明将其投影到三维空间中,将其表示为点云(Point Cloud)数据,通过学习三维空间中的点云表示,显式地建模像素级关系,进一步探索外观和几何信息。对于第二个问题,该发明根据每个尺度的特征,应用到基于点云的融合模块中,以充分利用两种模态的互补信息。
-
公开(公告)号:CN115272880A
公开(公告)日:2022-11-01
申请号:CN202210905640.1
申请日:2022-07-29
Applicant: 大连理工大学
IPC: G06V20/13 , G06V10/40 , G06V10/764 , G06V10/774
Abstract: 本发明属于计算机视觉图像信息处理技术领域,一种基于度量学习的多模态遥感目标识别方法。本发明的方法重新考虑了图像风格与深度模型泛化性之间的关系,并进一步提出了一种独特的端到端的三重风格内容度量网络,该网络可以减少域泛化问题的不利影响,提高深度模型的泛化能力。具体来说,分离输入图像的风格和内容,然后对用风格转换模块替换的风格特征施加约束,以迫使我们的模型学习与内容有关与风格无关的有判别力的特征。本发明利用三重度量学习的方法,增强了遥感目标别模型提取特征的能力。目前存在的遥感目标识别方法仅对一种域的数据集有良好的效果,对未知域的表现很差。本发明的方法解决了这一问题,使模型对不同域数据集均具有泛化性。
-
公开(公告)号:CN112612900A
公开(公告)日:2021-04-06
申请号:CN202011434422.1
申请日:2020-12-10
Applicant: 大连理工大学
Abstract: 本发明提供了一种知识图谱指导的多张场景图像生成方法,属于图像生成邻域。本发明首次利用知识图谱辅助完成图像生成任务,首先构建含有物体布局关系的知识图谱,然后将一组物体标签输入图谱中,经布局搜索模块,得到多张符合事实的布局关系图;再将布局关系图通过预训练好的知识模块,提取图谱中的知识信息,最后在布局关系图通过图像生成模块时,结合知识模块中得到的知识物体矩阵与全局知识向量,对生成器与鉴别器进行训练,以生成每张关系图对应的场景图像。本发明利用知识图谱实现了一组标签,生成多张图像的一对多任务,通过嵌入知识表示信息提升图像生成质量。本发明利用真实的图像数据集进行评估本发明,并观察在最先进的基线上的改进。
-
公开(公告)号:CN112612900B
公开(公告)日:2024-12-13
申请号:CN202011434422.1
申请日:2020-12-10
Applicant: 大连理工大学
IPC: G06F16/36 , G06N3/045 , G06N3/0499 , G06N3/082 , G06N5/022
Abstract: 本发明提供了一种知识图谱指导的多张场景图像生成方法,属于图像生成邻域。本发明首次利用知识图谱辅助完成图像生成任务,首先构建含有物体布局关系的知识图谱,然后将一组物体标签输入图谱中,经布局搜索模块,得到多张符合事实的布局关系图;再将布局关系图通过预训练好的知识模块,提取图谱中的知识信息,最后在布局关系图通过图像生成模块时,结合知识模块中得到的知识物体矩阵与全局知识向量,对生成器与鉴别器进行训练,以生成每张关系图对应的场景图像。本发明利用知识图谱实现了一组标签,生成多张图像的一对多任务,通过嵌入知识表示信息提升图像生成质量。本发明利用真实的图像数据集进行评估本发明,并观察在最先进的基线上的改进。
-
-
公开(公告)号:CN116704506A
公开(公告)日:2023-09-05
申请号:CN202310737250.2
申请日:2023-06-21
Applicant: 大连理工大学
Abstract: 本发明属于指代图像分割领域,具体涉及一种基于交叉环境注意力的指代图像分割方法。首先用语言编码器和视觉编码器提取文本和图像的原始特征,并分别构建语义图和视觉图结构;其次利用交叉注意力机制将文本和图像节点特征映射到多模态特征空间中,通过学习交叉环境信息对边特征进行嵌入,进而计算跨模态关系矩阵,得到文本和图像的跨模态特征表示;最后利用在多个尺度上整合多模态特征得到最终的分割掩膜。本发明根据不同的全局语义特征,自适应地调整多模态对应关系,增强了模型对跨模态信息的理解能力。通过利用真实的多模态数据集评估本发明,验证了本发明的性能达到了国际先进水平。
-
-
-
-
-
-
-
-
-