-
公开(公告)号:CN104994370A
公开(公告)日:2015-10-21
申请号:CN201510384847.9
申请日:2015-06-30
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
Abstract: 本发明公开一种3D视频图像采集系统,包括双目高清摄像头、可遥控云台、图像拼接器和3D显示器,其中,所述双目高清摄像头安装在可遥控云台上,所述可遥控云台通过遥控信号进行左右或上下旋转,使双目高清摄像头对准正确方位进行图像采集,所述双目高清摄像头由两个摄像头组成,通过两个摄像头从不同视点拍摄得到同一场景的两幅存在双目视差的图像,利用双目视差恢复得到场景深度,双目高清摄像头将图像发送给图像拼接器,图像拼接器将2张JPG格式的图像以side by side格式拼接成一张JPG格式的图片,并通过数据线将拼接后的图像数据传输到3D显示器。
-
公开(公告)号:CN104992582B
公开(公告)日:2017-08-15
申请号:CN201510406086.2
申请日:2015-07-13
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
IPC: G09B9/00
Abstract: 本发明公开一种基于混合现实的医学微创手术训练系统,包括主动端单元、视频图像采集及传输单元、视频图像接收及显示单元、从动端单元。主动端单元在进行虚拟的手术时,从动端单元可以实现与主动端同步及完全相同的操作,并且通过从动端的手柄可以感受的到主动端在进行手术时对手术器械的操控情况。通过视频图像采集及传输单元可以采集主动端人员的操作过程并传输到为从动端的显示器中,在从动端的受训人员可以一边感受主动端的手术器械操作情况,同时也可以观察主动端的操作者的整体操作过程。本发明的有益效果在于通过混合现实的手术过程,实现了真实感很强的医学微创手术的训练,为医院和医学院校提供了良好的训练平台。
-
公开(公告)号:CN104992582A
公开(公告)日:2015-10-21
申请号:CN201510406086.2
申请日:2015-07-13
Applicant: 中国科学院自动化研究所 , 中国科学院浙江数字内容研究院
IPC: G09B9/00
CPC classification number: G09B23/286
Abstract: 本发明公开一种基于混合现实的医学微创手术训练系统,包括主动端单元、视频图像采集及传输单元、视频图像接收及显示单元、从动端单元。主动端单元在进行虚拟的手术时,从动端单元可以实现与主动端同步及完全相同的操作,并且通过从动端的手柄可以感受的到主动端在进行手术时对手术器械的操控情况。通过视频图像采集及传输单元可以采集主动端人员的操作过程并传输到为从动端的显示器中,在从动端的受训人员可以一边感受主动端的手术器械操作情况,同时也可以观察主动端的操作者的整体操作过程。本发明的有益效果在于通过混合现实的手术过程,实现了真实感很强的医学微创手术的训练,为医院和医学院校提供了良好的训练平台。
-
公开(公告)号:CN117133039B
公开(公告)日:2024-03-15
申请号:CN202311126138.1
申请日:2023-09-01
Applicant: 中国科学院自动化研究所
IPC: G06V40/16 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及图像处理技术领域,提供一种图像鉴伪模型训练方法、图像鉴伪方法、装置及电子设备,该方法通过图像鉴伪模型在不同时段的伪造类型的真伪图像样本上进行域增量学习,以提升图像鉴伪模型对新型伪造算法的快速适应能力,同时保持对原伪造图像的鉴别精度。而且,该方法在对当前时段的训练过程,只需要前一历史时段的真伪图像特征分布参数,利用其确定前一历史时段的真伪重建特征即可得到各历史时段的真伪重建特征,并不需要各历史时段的真伪图像特征,可以避免访问历史时段的真伪图像样本时可能造成的隐私泄露和数据安全问题,有利于隐私保护和信息安全。
-
公开(公告)号:CN117315090A
公开(公告)日:2023-12-29
申请号:CN202311265075.8
申请日:2023-09-27
Applicant: 中国科学院自动化研究所
Abstract: 本公开涉及一种基于跨模态风格学习的图像生成方法及装置,所述方法包括:通过预训练生成对抗网络生成目标生成图像,并对目标训练图像进行图像增强处理;将目标生成图像和处理后目标训练图像,输入对抗网络的判别器中,将判别器输出的目标特征,输入训练好的原型空间中,并根据原型空间的输出确定交换预测损失;获取目标训练图像和目标生成图像之间的原始对抗损失、源生成图像和目标生成图像之间的对比学习损失与文本指导损失,并根据所述损失确定微调损失;按照所述微调损失对对抗网络进行微调,得到微调后图像生成模型,通过图像生成模型生成与训练图像一致的图像,能够解决当前极少量样本下目标域风格学习不佳的问题。
-
公开(公告)号:CN113313132B
公开(公告)日:2021-11-09
申请号:CN202110875691.X
申请日:2021-07-30
Applicant: 中国科学院自动化研究所
Abstract: 本公开涉及一种对抗样本图像的确定方法、装置、电子设备及存储介质,上述方法包括:获取原始图像,并通过降维算法将所述原始图像转换为原始图像流形;调用图像搜索函数,以根据所述原始图像流形确定目标图像;通过神经网络模型,根据所述原始图像流形和所述目标图像,确定对抗样本图像,其中,所述神经网络模型已通过训练,学习到并保存有所述神经网络模型输入的图像和输出的目标特征之间的对应关系,所述对抗样本图像通过在所述神经网络模型的特征空间进行度量学习确定。采用上述技术手段,解决现有技术中,在生成对抗样本时,容易过度拟合训练模型的结构,从而造成相对较低的迁移性等问题。
-
公开(公告)号:CN113033511A
公开(公告)日:2021-06-25
申请号:CN202110556372.2
申请日:2021-05-21
Applicant: 中国科学院自动化研究所
Abstract: 本发明提供一种基于操控解耦身份表示的人脸匿名方法,包括:训练数据准备处理阶段,具有身份解耦能力的生成模型的训练阶段;人脸信息的操纵阶段;测试阶段;利用生成模型的去耦能力,以已有的人脸特征提取网络所提取的特征作为监督信号,将人脸图片的属性信息以及身份信息分别解耦。在顺利的解耦出人脸的属性信息以及身份信息之后,该方法保持属性信息不变,同时对身份信息进行操纵,以达到对人脸图片进行匿名化的目的。该方法主要包括以下阶段;本方法可以将图片和视频帧中已有的人脸进行匿名化处理,匿名化后的人脸图片或者视频帧在保持与原图高度相似的同时,不能够被已有的人脸识别系统检测为原身份,从而有效保护原人脸图片持有者的隐私。
-
公开(公告)号:CN108874889B
公开(公告)日:2021-01-12
申请号:CN201810460265.8
申请日:2018-05-15
Applicant: 中国科学院自动化研究所
IPC: G06F16/583 , G06F16/55 , G06N20/00 , G06N3/04
Abstract: 本发明涉及图像处理技术领域,具体提供了一种基于目标体图像的目标体检索方法、系统及装置,旨在解决如何提高图像检索准确率的技术问题。为此目的,本发明中的目标体检索方法基于预先构建的图像检索模型提取目标体图像的图像特征,计算目标体图像的图像特征与预设的图像库中比对图像的图像特征的相似度,根据计算结果获取图像库中与目标体图像相似的比对图像,从而可以根据相似比对图像的图像类别确定目标体图像的图像类别。其中,本发明利用两步训练方法(首先采用分类损失函数进行训练,然后采用双阈值损失函数进行训练)对图像检索模型进行模型训练,可以提高图像检索模型的检索结果准确性。同时,本发明中的装置和系统能够实现上述目标体检索方法。
-
公开(公告)号:CN107025647B
公开(公告)日:2020-02-28
申请号:CN201710137310.1
申请日:2017-03-09
Applicant: 中国科学院自动化研究所
Abstract: 本发明涉及一种图像篡改取证方法及装置,所述方法包括标注待测图像的观测线索;构建目标物体所属类别物体的三维形变模型;估计支撑平面的三维法向量;估计目标物体的三维姿态;依据目标物体与支撑平面之间,和/或多个目标物体之间的平行度,判断待测图像是否为篡改图像。与现有技术相比,本发明提供的一种图像篡改取证方法及装置,依据目标物体与支撑平面之间,和/或多个目标物体之间平行度的大小判断待测图像是否为篡改图像,能够有效判断低质量图像是否为篡改图像。
-
公开(公告)号:CN110428006A
公开(公告)日:2019-11-08
申请号:CN201910706992.2
申请日:2019-08-01
Applicant: 中国科学院自动化研究所
IPC: G06K9/62
Abstract: 本发明属于计算机生成图像、计算机视觉与图像取证领域,具体涉及一种计算机生成图像的检测方法、系统、装置,旨在解决现有计算机生成图像检测模型对模型的训练集非同源的数据检测准确率低的问题。本系统方法包括获取待检测的图像,作为输入图像;基于输入图像,通过计算机生成图像检测模型获取图像检测结果;其中,计算机生成图像检测模型采用基于DCGAN判别模型的CNN网络构建。本发明增强了计算机生成图像检测模型的泛化能力,提高了其对模型的训练集非同源的数据检测的准确率。
-
-
-
-
-
-
-
-
-