一种在物理域上针对黑盒人脸识别系统的对抗样本生成方法

    公开(公告)号:CN117636440A

    公开(公告)日:2024-03-01

    申请号:CN202311700805.2

    申请日:2023-12-12

    Abstract: 本发明提出一种在物理域上针对黑盒人脸识别系统的对抗样本生成方法,应用于人工智能安全领域。所述生成方法包括:1)获得源人脸图像Xatk和目标人脸图像Xtar;2)构建对抗掩膜;3)生成数字域对抗样本Xadv,4)基于计算得到的组合损失函数使用优化器Adam优化对抗性扰动块;5)在物理域打印对抗性扰动块,裁剪后佩戴到攻击者人物模型上,拍摄后得到物理域对抗样本。本发明有效地增强了对抗样本的物理可实现性,有利于提升物理域对抗攻击成功率和活体检测通过率,从而用来对人脸识别系统进行健壮性评估或对抗训练。

    一种身份验证的方法、装置、存储介质以及电子设备

    公开(公告)号:CN118692123A

    公开(公告)日:2024-09-24

    申请号:CN202410705104.6

    申请日:2024-05-31

    Abstract: 本说明书公开了一种身份验证的方法、装置、存储介质以及电子设备,具体包括:通过将目标人脸图像与人脸图像库中的各人脸图像进行匹配,确定出目标人脸图像的相似人脸图像。将目标人脸图像输入到预设的图像区域识别模型中,以使得图像区域识别模型对目标人脸图像进行图像分割,得到分割结果。根据分割结果,确定出对抗人脸图像区域和非对抗人脸图像区域。根据对抗人脸图像区域与相似人脸图像之间的相似度,和/或非对抗人脸图像区域与相似人脸图像之间的相似度,进行身份验证。此方法极大程度上提升了身份验证过程中的准确性,既能有效降低风险事故的发生概率,还能更为有效地保障用户的个人信息以及财产安全,确保用户在身份验证中的绝对安全。

    一种基于授权机制的本地化大模型保护方法及其系统

    公开(公告)号:CN117763588A

    公开(公告)日:2024-03-26

    申请号:CN202311810834.4

    申请日:2023-12-26

    Applicant: 浙江大学

    Abstract: 本发明公开了一种基于授权机制的本地化大模型保护方法及其系统,属于深度学习模型知识产权保护领域。本发明对待保护大模型的真实模型参数进行混淆,只有正确的授权才可以让混淆后的参数正常的运行,即使攻击者拿到混淆后的模型架构和参数也无法正常使用模型,做到了对于模型的主动保护。并且授权所需参数将随着模型参数的更新而调整,利用可信执行环境实现了反向传播过程中授权参数梯度的隐藏,确保了微调过程的有效保护。本发明对于微调过程中模型的保护不涉及参数通信或加密,并且产生的额外开销和模型的参数更新规模以及微调方式无关,这确保了本发明能过够支持全参微调,最终能够实现有效且轻量的本地化大模型全生命周期保护。

Patent Agency Ranking