-
公开(公告)号:CN114758198B
公开(公告)日:2025-01-14
申请号:CN202210291566.9
申请日:2022-03-23
Applicant: 北京理工大学
IPC: G06V10/82 , G06V10/776 , G06V10/774 , G06V10/764 , G06N3/084 , G06N3/0985 , G06N3/094
Abstract: 本发明公开了一种基于元学习对抗扰动的黑盒攻击方法及系统,将元学习训练数据集D输入至黑盒模型的替代模型,根据替代模型的输出结果和预先设定的目标标签计算替代模型的损失函数,根据损失函数对初始化扰动v进行梯度下降更新获得元对抗扰动v*。利用元对抗扰动v*进行黑盒攻击,若黑盒模型对图像样本的分类结果为预先设定的目标标签,则攻击完成;若分类结果不是预先设定的目标标签,则对图像样本进行更新,利用更新后的图像样本继续进行黑盒攻击,直至分类结果为预先设定的目标标签。本发明训练的元对抗扰动为原始图像选择了较好的初始位置,大幅提升了对黑盒模型的查询效率及攻击成功率,对提升神经网络黑盒攻击具有非常重要的意义。
-
公开(公告)号:CN116612345A
公开(公告)日:2023-08-18
申请号:CN202310410048.9
申请日:2023-04-18
Applicant: 北京理工大学
IPC: G06V10/774 , G06V10/82 , G06N3/084 , G06N3/0985 , G06N3/094
Abstract: 本发明公开了一种基于元学习对抗特征的对抗训练方法和系统,涉及图像识别技术领域,能够提升深度神经网络模型的鲁棒性。首先对训练数据集批处理化,得到多个训练批次的数据输入至待训练的深度神经网络模型;对于每个批次的数据,计算神经网络模型的输出结果与该批次对应真实标签之间的损失函数,根据损失函数对初始化扰动进行梯度下降更新,获得该批次的元对抗扰动。选取最优的元对抗扰动,叠加在当前批次数据中,对当前训练批次数据执行梯度下降,并向允许扰动的范围内进行投影,得到当前训练批次数据对应的对抗样本数据。使用对抗样本数据对深度神经网络模型采用梯度下降方法进行训练,得到具备防御对抗攻击效果的鲁棒深度神经网络模型。
-
公开(公告)号:CN114758198A
公开(公告)日:2022-07-15
申请号:CN202210291566.9
申请日:2022-03-23
Applicant: 北京理工大学
IPC: G06V10/776 , G06V10/774 , G06V10/764 , G06V10/82 , G06K9/62 , G06N3/08
Abstract: 本发明公开了一种基于元学习对抗扰动的黑盒攻击方法及系统,将元学习训练数据集D输入至黑盒模型的替代模型,根据替代模型的输出结果和预先设定的目标标签计算替代模型的损失函数,根据损失函数对初始化扰动v进行梯度下降更新获得元对抗扰动v*。利用元对抗扰动v*进行黑盒攻击,若黑盒模型对图像样本的分类结果为预先设定的目标标签,则攻击完成;若分类结果不是预先设定的目标标签,则对图像样本进行更新,利用更新后的图像样本继续进行黑盒攻击,直至分类结果为预先设定的目标标签。本发明训练的元对抗扰动为原始图像选择了较好的初始位置,大幅提升了对黑盒模型的查询效率及攻击成功率,对提升神经网络黑盒攻击具有非常重要的意义。
-
-