鲁棒的个性化联邦学习方法、装置、系统及存储介质

    公开(公告)号:CN116962085A

    公开(公告)日:2023-10-27

    申请号:CN202311213109.9

    申请日:2023-09-20

    Abstract: 本说明书实施例提供了一种鲁棒的个性化联邦学习方法、装置及系统,方法包括:服务器接收来自多个客户端的模型更新数据,模型更新数据为在客户端上训练的本地模型的参数在训练前后的参数差值;服务器根据模型更新数据,得到各模型更新数据之间的基于α的层位置正则化相似度;服务器针对每一个客户端,根据基于α的层位置正则化相似度,得到模型更新数据的权重;服务器根据模型更新数据的权重和模型更新数据,分别得到各客户端对应的聚合模型更新数据;服务器发送聚合模型更新数据到各客户端。本申请提供的技术方案用以解决在联邦学习中系统中存在恶意攻击者时,通过本地协作训练算法同时训练本地模型和聚合模型来抵御恶意客户端的投毒攻击问题。

    一种基于区块链可验证安全的联邦学习方法

    公开(公告)号:CN116049816A

    公开(公告)日:2023-05-02

    申请号:CN202310027342.1

    申请日:2023-01-09

    Abstract: 本发明提供了一种基于区块链可验证安全的联邦学习方法。该方法包括:各个参与方从区块链上下载全局模型,在本地进行训练得到本地模型,将本地模型数据上传至区块链,参与方从区块链上下载其余参与方本轮上传的本地模型,对其余参与方的本地模型进行检测和评分,将评分结果上传至区块链上;智能合约对所用参与方上传的评分结果进行统计和评分,择优选择性能较好的多个本地模型进行聚合,得到最新的全局模型,智能合约根据当前轮次的各个参与方行为进行信誉评分,将各个参与方的信誉评分结果存储在区块链上。本发明方法通过让参与方依据欧氏距离计算模型相似度,可以同时检测出联邦学习中的多种投毒攻击,可以最大程度保证全局模型的性能表现。

    面向去中心化社区治理的匿名信誉投票方法、装置和系统

    公开(公告)号:CN118353641A

    公开(公告)日:2024-07-16

    申请号:CN202410603602.X

    申请日:2024-05-15

    Abstract: 本发明提供一种面向去中心化社区治理的匿名信誉投票方法、装置和系统,方法包括:对投票内容以智能合约的形式部署在区块链,通过一次性环签名算法对每个意向用户的公钥添加到环签名公钥集中;对投票内容以智能合约的形式部署在区块链,通过一次性环签名算法对每个意向用户的公钥添加到环签名公钥集中;通过计票委员会的协商,获得用于同态加密算法所需的公钥和私钥;将获得的公钥发送到所有认证用户,将获得的私钥通过秘密共享算法分配给计票委员会,使得认证用户通过该公钥对选票进行加密,同时生成一次性环签名发送到区块链的智能合约;获得合法选民发送的加密投票,通过计票委员会对加密选票进行解密,通过区块链的智能合约获得计票委员会中最多相同结果数量的计票结果。

    一种基于区块链可验证安全的联邦学习方法

    公开(公告)号:CN116049816B

    公开(公告)日:2023-07-25

    申请号:CN202310027342.1

    申请日:2023-01-09

    Abstract: 本发明提供了一种基于区块链可验证安全的联邦学习方法。该方法包括:各个参与方在本地训练模型,将得到的本地模型上传至区块链,参与方从区块链上下载其余参与方上传的本地模型,对其本地模型通过模型相似度算法检测并依据本地数据评分,确保本地模型不会受到攻击者的投毒攻击,将评分结果上传至区块链上;智能合约对所有参与方上传的评分结果进行统计和评分,择优选择精度较高的多个本地模型聚合,得到最新的全局模型,智能合约根据当前轮次的各个参与方行为进行信誉评分,将信誉评分结果存储在区块链上。本发明方法通过让参与方依据欧氏距离计算模型相似度,可以同时检测出联邦学习中的多种投毒攻击,可以最大程度保证系统的鲁棒性和可靠性。

    一种基于公平理论的面向联邦学习的公平奖励分配方法

    公开(公告)号:CN115345317B

    公开(公告)日:2023-04-07

    申请号:CN202210937456.5

    申请日:2022-08-05

    Abstract: 本发明提供了一种基于公平理论的面向联邦学习的公平奖励分配方法。该方法包括:将亚当斯的公平理论应用于联邦学习中,参与方综合分析对联邦任务投入的所有因素后,给出本次任务的期望奖励,任务发布者利用参与方的历史任务计算出参与方的声望;参与方利用本地数据参与每轮训练任务,评估参与方的数据贡献、模型贡献和等待时间补贴三因素,综合三因素的贡献结果评估参与方的贡献;当全局模型收敛后,以参与方的实际奖励与期望奖励尽可能接近为目标,根据公平奖励目标函数动态调整三因素权重,获取并分发参与方的实际奖励。本发明综合考虑不同参与方的实际情况,以尽可能满足所有参与方的期望为目标分配实际奖励,实现满足参与方期望的公平性。

    一种基于公平理论的面向联邦学习的公平奖励分配方法

    公开(公告)号:CN115345317A

    公开(公告)日:2022-11-15

    申请号:CN202210937456.5

    申请日:2022-08-05

    Abstract: 本发明提供了一种基于公平理论的面向联邦学习的公平奖励分配方法。该方法包括:将亚当斯的公平理论应用于联邦学习中,参与方综合分析对联邦任务投入的所有因素后,给出本次任务的期望奖励,任务发布者利用参与方的历史任务计算出参与方的声望;参与方利用本地数据参与每轮训练任务,评估参与方的数据贡献、模型贡献和等待时间补贴三因素,综合三因素的贡献结果评估参与方的贡献;当全局模型收敛后,以参与方的实际奖励与期望奖励尽可能接近为目标,根据公平奖励目标函数动态调整三因素权重,获取并分发参与方的实际奖励。本发明综合考虑不同参与方的实际情况,以尽可能满足所有参与方的期望为目标分配实际奖励,实现满足参与方期望的公平性。

    基于知识蒸馏和锐度感知最小化的个性化联邦学习方法

    公开(公告)号:CN118862948A

    公开(公告)日:2024-10-29

    申请号:CN202410786500.6

    申请日:2024-06-18

    Abstract: 本发明提供了一种基于知识蒸馏和锐度感知最小化的个性化联邦学习方法。该方法包括:服务器生成全局共享无标签伪数据集,并下发给各个客户端;客户端利采用锐度感知最小化方法对本地模型进行优化,得到优化后的本地模型wc;客户端利用本地数据集和无标签伪数据集生成本地知识,服务器对各个客户端的本地知识中的logits依据权重系数进行加权运算得到全局#imgabs0#将由全局原型p和全局#imgabs1#构成的全局知识下发给各个客户端;客户端根据本地logits和全局知识中的全局#imgabs2#对本地模型wc进行更新。本发明利用无标签伪数据集作为公共数据集进行知识蒸馏,就能够实现良好的性能。服务器利用权重对本地知识进行聚合,以获得高质量的全局知识,用于提升本地模型性能。

Patent Agency Ranking