一种基于相互蒸馏的去中心化联邦学习框架及方法

    公开(公告)号:CN117808115A

    公开(公告)日:2024-04-02

    申请号:CN202310881697.7

    申请日:2023-07-18

    Abstract: 本发明公开了一种基于相互蒸馏的去中心化联邦学习框架及方法。本发明首先对本地模型进行初始化;然后参与者使用私人数据集对本地模型进行更新,后参与者从区块链中获取公共数据集的特征,用更新后的本地模型计算公共数据集软预测并上传到区块链中;区块链以参与者的历史声誉和当前表现作为依据计算参与者的信誉更新,并使用基于声誉的加权聚合方法进行知识聚合;最后参与者从区块链获取聚合的全局知识,根据其与本地知识的差距更新本地模型。本发明允许模型异构的参与者通过交换公共数据集的知识,实现对参与者模型隐私的有效保护;采用知识聚合实现了一对多的相互蒸馏模式,提高了学习效率;此外以声誉值为依据,缓解恶意参与者的投毒攻击。

Patent Agency Ranking