-
公开(公告)号:CN117422130A
公开(公告)日:2024-01-19
申请号:CN202311425216.8
申请日:2023-10-30
Applicant: 扬州大学
IPC: G06N3/098 , G06N3/0475 , G06N3/0464 , G06F18/24 , G06F18/213
Abstract: 本发明公开了一种基于对比学习的联邦学习后门防御方法及系统,本发明方法中,服务器收集各参与方上传的本地模型,并进行模型聚合,聚合完成后,将聚合所得的模型作为下一轮的全局模型,下发至各参与方;各参与方下载全局模型,并利用本地数据基于熵最大化的生成模型训练后门触发器生成器;各参与方利用训练完成的生成器生成后门触发器,以本地训练数据为输入,将生成的后门触发器添加至正常样本进行数据增强,将全局模型作为在线编码器,上一轮本地模型作为动量编码器进行对比训练,将后门模型的对后门数据的特征表示指向干净模型的特征表示,以此来净化后门模型。本发明能够挖掘更隐蔽的后门特征,有效缓解后门影响,提升模型的鲁棒性。
-
公开(公告)号:CN117972691A
公开(公告)日:2024-05-03
申请号:CN202311767173.1
申请日:2023-12-20
Applicant: 扬州大学
Abstract: 本发明公开了一种基于遗忘学习的可解释图推荐系统后门防御方法及系统,通过触发器还原算法还原潜在的图触发器,并通过遗忘学习遗忘后门触发器特征,从而将后门模型净化为正常模型。本发明首先利用一定比例的干净数据集,通过可解释的图后门还原算法,恢复后门模型中的后门触发器子图。随后,将后门触发器子图添加至正常样本,通过基于知识蒸馏的遗忘学习算法,遗忘后门触发器特征并保持模型在正常任务上的精度,以此来净化后门模型。本发明能够有效解决攻击者通过修改用户之间的关系,改变用户信息操作得到中毒子图,用户使用中毒数据训练的后门模型时,遭受如恶意广告侵扰等问题,有助于提升服务质量和用户体验。
-
公开(公告)号:CN118035991A
公开(公告)日:2024-05-14
申请号:CN202311818727.6
申请日:2023-12-26
Applicant: 扬州大学
IPC: G06F21/55 , G06N3/0455 , G06N3/042 , G06N3/096 , G06N3/082 , G06N3/088 , G06N3/09 , G06N3/0895 , G06F18/23213
Abstract: 本发明公开了一种针对图片检索系统的图后门攻击防御方法及系统,方法包括:对植入后门触发器的数据集进行对比学习,实现图增强策略,构建不依赖数据标签的编码器;聚类经编码器解码后的数据向量,识别可疑样本,筛选干净样本;将干净样本结合GNNExplainer方法获取对图预测起至关重要的重要样本;利用重要样本训练出一个教师模型,对后门数据集训练出的学生模型进行知识蒸馏,教师模型指导学生模型修正节点标签映射关系,从而获得良性的图预测模型,并有效地进行图后门防御;本发明具备标签无关性可以出色地分离可疑样本与干净样本,更加符合实际情况,且有更高精度。
-
公开(公告)号:CN115630361A
公开(公告)日:2023-01-20
申请号:CN202211135741.1
申请日:2022-09-19
Applicant: 扬州大学
Abstract: 本发明公开了一种基于注意力蒸馏的联邦学习后门防御方法,包括:步骤1:获取n个本地模型,将n个本地模型的模型参数进行平均聚合,并将平均聚合后的模型参数对联邦学习当前轮次的全局模型进行更新,得到聚合后的全局模型;步骤2:以n个本地模型作为教师模型,以聚合后的全局模型作为学生模型,以标记后的数据集作为输入,进行多教师注意力知识蒸馏,得到蒸馏后的学生模型;步骤3:将蒸馏后的学生模型作为联邦学习下一轮次的全局模型下发给n个参与方,得到n个本地模型;步骤4:重复执行步骤1至步骤3,直至全局模型收敛,得到最终的全局模型;步骤5:将待分类数据输入至最终的全局模型,得到分类结果。
-
-
-