-
公开(公告)号:CN119670075A
公开(公告)日:2025-03-21
申请号:CN202510186398.0
申请日:2025-02-20
Applicant: 华侨大学
IPC: G06F21/55 , G06N3/0895 , G06F18/10 , G06F18/214 , G06F18/2433
Abstract: 本发明提供一种基于解耦学习过程的深度学习模型后门攻击防御方法,属于人工智能和深度学习领域,包括:利用被篡改的数据集,以最小化第一损失函数的方式对深度学习模型进行监督学习训练;分别计算每个干净样本和中毒样本的预测熵,对预测熵进行过滤得到干净子集;利用干净子集,以最大化第二损失函数的方式对监督学习训练后的深度学习模型进行主动遗忘训练;删除数据集中除干净子集之外的样本的标签得到无标签数据集,将无标签数据集与干净子集合并形成半监督数据集,利用半监督数据集对主动遗忘训练后的深度学习模型进行半监督微调训练。本发明的鲁棒性强,成本低,防御效果显著。
-
公开(公告)号:CN119670075B
公开(公告)日:2025-04-29
申请号:CN202510186398.0
申请日:2025-02-20
Applicant: 华侨大学
IPC: G06F21/55 , G06N3/0895 , G06F18/10 , G06F18/214 , G06F18/2433
Abstract: 本发明提供一种基于解耦学习过程的深度学习模型后门攻击防御方法,属于人工智能和深度学习领域,包括:利用被篡改的数据集,以最小化第一损失函数的方式对深度学习模型进行监督学习训练;分别计算每个干净样本和中毒样本的预测熵,对预测熵进行过滤得到干净子集;利用干净子集,以最大化第二损失函数的方式对监督学习训练后的深度学习模型进行主动遗忘训练;删除数据集中除干净子集之外的样本的标签得到无标签数据集,将无标签数据集与干净子集合并形成半监督数据集,利用半监督数据集对主动遗忘训练后的深度学习模型进行半监督微调训练。本发明的鲁棒性强,成本低,防御效果显著。
-