-
公开(公告)号:CN117133039B
公开(公告)日:2024-03-15
申请号:CN202311126138.1
申请日:2023-09-01
Applicant: 中国科学院自动化研究所
IPC: G06V40/16 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像处理技术领域,提供一种图像鉴伪模型训练方法、图像鉴伪方法、装置及电子设备,该方法通过图像鉴伪模型在不同时段的伪造类型的真伪图像样本上进行域增量学习,以提升图像鉴伪模型对新型伪造算法的快速适应能力,同时保持对原伪造图像的鉴别精度。而且,该方法在对当前时段的训练过程,只需要前一历史时段的真伪图像特征分布参数,利用其确定前一历史时段的真伪重建特征即可得到各历史时段的真伪重建特征,并不需要各历史时段的真伪图像特征,可以避免访问历史时段的真伪图像样本时可能造成的隐私泄露和数据安全问题,有利于隐私保护和信息安全。
-
公开(公告)号:CN117315090A
公开(公告)日:2023-12-29
申请号:CN202311265075.8
申请日:2023-09-27
Applicant: 中国科学院自动化研究所
Abstract: 本公开涉及一种基于跨模态风格学习的图像生成方法及装置,所述方法包括:通过预训练生成对抗网络生成目标生成图像,并对目标训练图像进行图像增强处理;将目标生成图像和处理后目标训练图像,输入对抗网络的判别器中,将判别器输出的目标特征,输入训练好的原型空间中,并根据原型空间的输出确定交换预测损失;获取目标训练图像和目标生成图像之间的原始对抗损失、源生成图像和目标生成图像之间的对比学习损失与文本指导损失,并根据所述损失确定微调损失;按照所述微调损失对对抗网络进行微调,得到微调后图像生成模型,通过图像生成模型生成与训练图像一致的图像,能够解决当前极少量样本下目标域风格学习不佳的问题。
-
公开(公告)号:CN113313132B
公开(公告)日:2021-11-09
申请号:CN202110875691.X
申请日:2021-07-30
Applicant: 中国科学院自动化研究所
Abstract: 本公开涉及一种对抗样本图像的确定方法、装置、电子设备及存储介质,上述方法包括:获取原始图像,并通过降维算法将所述原始图像转换为原始图像流形;调用图像搜索函数,以根据所述原始图像流形确定目标图像;通过神经网络模型,根据所述原始图像流形和所述目标图像,确定对抗样本图像,其中,所述神经网络模型已通过训练,学习到并保存有所述神经网络模型输入的图像和输出的目标特征之间的对应关系,所述对抗样本图像通过在所述神经网络模型的特征空间进行度量学习确定。采用上述技术手段,解决现有技术中,在生成对抗样本时,容易过度拟合训练模型的结构,从而造成相对较低的迁移性等问题。
-
公开(公告)号:CN113033511A
公开(公告)日:2021-06-25
申请号:CN202110556372.2
申请日:2021-05-21
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种基于操控解耦身份表示的人脸匿名方法,包括:训练数据准备处理阶段,具有身份解耦能力的生成模型的训练阶段;人脸信息的操纵阶段;测试阶段;利用生成模型的去耦能力,以已有的人脸特征提取网络所提取的特征作为监督信号,将人脸图片的属性信息以及身份信息分别解耦。在顺利的解耦出人脸的属性信息以及身份信息之后,该方法保持属性信息不变,同时对身份信息进行操纵,以达到对人脸图片进行匿名化的目的。该方法主要包括以下阶段;本方法可以将图片和视频帧中已有的人脸进行匿名化处理,匿名化后的人脸图片或者视频帧在保持与原图高度相似的同时,不能够被已有的人脸识别系统检测为原身份,从而有效保护原人脸图片持有者的隐私。
-
公开(公告)号:CN108874889B
公开(公告)日:2021-01-12
申请号:CN201810460265.8
申请日:2018-05-15
Applicant: 中国科学院自动化研究所
IPC: G06F16/583 , G06F16/55 , G06N20/00 , G06N3/04
Abstract: 本发明涉及图像处理技术领域,具体提供了一种基于目标体图像的目标体检索方法、系统及装置,旨在解决如何提高图像检索准确率的技术问题。为此目的,本发明中的目标体检索方法基于预先构建的图像检索模型提取目标体图像的图像特征,计算目标体图像的图像特征与预设的图像库中比对图像的图像特征的相似度,根据计算结果获取图像库中与目标体图像相似的比对图像,从而可以根据相似比对图像的图像类别确定目标体图像的图像类别。其中,本发明利用两步训练方法(首先采用分类损失函数进行训练,然后采用双阈值损失函数进行训练)对图像检索模型进行模型训练,可以提高图像检索模型的检索结果准确性。同时,本发明中的装置和系统能够实现上述目标体检索方法。
-
公开(公告)号:CN107025647B
公开(公告)日:2020-02-28
申请号:CN201710137310.1
申请日:2017-03-09
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种图像篡改取证方法及装置,所述方法包括标注待测图像的观测线索;构建目标物体所属类别物体的三维形变模型;估计支撑平面的三维法向量;估计目标物体的三维姿态;依据目标物体与支撑平面之间,和/或多个目标物体之间的平行度,判断待测图像是否为篡改图像。与现有技术相比,本发明提供的一种图像篡改取证方法及装置,依据目标物体与支撑平面之间,和/或多个目标物体之间平行度的大小判断待测图像是否为篡改图像,能够有效判断低质量图像是否为篡改图像。
-
公开(公告)号:CN110428006A
公开(公告)日:2019-11-08
申请号:CN201910706992.2
申请日:2019-08-01
Applicant: 中国科学院自动化研究所
IPC: G06K9/62
Abstract: 本发明属于计算机生成图像、计算机视觉与图像取证领域,具体涉及一种计算机生成图像的检测方法、系统、装置,旨在解决现有计算机生成图像检测模型对模型的训练集非同源的数据检测准确率低的问题。本系统方法包括获取待检测的图像,作为输入图像;基于输入图像,通过计算机生成图像检测模型获取图像检测结果;其中,计算机生成图像检测模型采用基于DCGAN判别模型的CNN网络构建。本发明增强了计算机生成图像检测模型的泛化能力,提高了其对模型的训练集非同源的数据检测的准确率。
-
公开(公告)号:CN108874889A
公开(公告)日:2018-11-23
申请号:CN201810460265.8
申请日:2018-05-15
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及图像处理技术领域,具体提供了一种基于目标体图像的目标体检索方法、系统及装置,旨在解决如何提高图像检索准确率的技术问题。为此目的,本发明中的目标体检索方法基于预先构建的图像检索模型提取目标体图像的图像特征,计算目标体图像的图像特征与预设的图像库中比对图像的图像特征的相似度,根据计算结果获取图像库中与目标体图像相似的比对图像,从而可以根据相似比对图像的图像类别确定目标体图像的图像类别。其中,本发明利用两步训练方法(首先采用分类损失函数进行训练,然后采用双阈值损失函数进行训练)对图像检索模型进行模型训练,可以提高图像检索模型的检索结果准确性。同时,本发明中的装置和系统能够实现上述目标体检索方法。
-
公开(公告)号:CN102890814B
公开(公告)日:2014-12-10
申请号:CN201210440037.7
申请日:2012-11-06
Applicant: 中国科学院自动化研究所
IPC: G06T1/00
CPC classification number: G06T1/005 , G06T1/0028 , G06T2201/0052 , G06T2201/0061
Abstract: 一种嵌入水印的方法,包括步骤:对待保护图像进行小波分解,将低频小波系数分成互不重叠的块;对每块进行奇异值分解;随机选择两个满足条件的图像块组成块对;通过修改块对的最大奇异值以嵌入水印;对每个子块进行奇异值逆分解,然后,对小波系数进行小波重构。本发明将水印嵌入在图像最稳定的部分,从而使水印的鲁棒性得到增强。通过限定两个图像块间的归一化距离以选择图像块对进行水印嵌入,减小了图像的修改量,从而保证嵌入水印后图像的透明性。
-
公开(公告)号:CN102722858B
公开(公告)日:2014-04-23
申请号:CN201210171654.1
申请日:2012-05-29
Applicant: 中国科学院自动化研究所
IPC: G06T1/00
CPC classification number: G06T1/0028 , G06T2201/0051 , G06T2201/0083 , G06T2201/0201
Abstract: 本发明公开了一种基于空域特征的数字图像隐写分析方法,该方法包括以下步骤,对训练集中已标记类别信息的数字图像,计算其对称邻域内多个方向上的像素灰度差分值信息;并对像素灰度差分值信息进行处理和旋转不变性编码;然后计算编码后信息的直方图,将直方图归一化后作为特征;对提取到的特征进行训练与分类,得到分类器模型;对任意输入的数字图像,计算其邻域信息来提取特征;将提取到的特征输入到所述分类器模型中,获得输入图像的类别信息。由于本方法不需要分析特定隐写术的特点,是一种通用的方法,故可以在针对数字图像的通用(盲)隐写分析中得到广泛应用。
-
-
-
-
-
-
-
-
-