基于区块链的去中心化联邦学习中拜占庭攻击抵御方法

    公开(公告)号:CN114826699A

    公开(公告)日:2022-07-29

    申请号:CN202210369653.1

    申请日:2022-04-08

    Abstract: 本发明公开了一种基于区块链的去中心化联邦学习中拜占庭攻击抵御方法,主要解决去中心化联邦学习出现拜占庭攻击时现有技术的计算开销和通信开销过高问题。其实现步骤为:1)本地用户获取预训练的模型,并建立信誉对照关系;2)本地用户对模型训练后传输,然后生成签名消息并广播;3)本地用户对签名消息验证后存储,当签名消息存储了一定数量时,生成区块并利用改进的PBFT共识算法对区块共识后上链;4)本地用户对其他本地用户的传输和广播行为进行信誉对照关系的更新,然后调整签名消息的生成难度,重复执行流程直到模型收敛时结束。本发明能够有效降低现有技术的计算开销和通信开销,可用于提升去中心化联邦学习的拜占庭鲁棒性。

    基于差分隐私和量化的联邦学习全局模型训练方法

    公开(公告)号:CN113591145A

    公开(公告)日:2021-11-02

    申请号:CN202110856897.8

    申请日:2021-07-28

    Abstract: 一种基于差分隐私和量化的联邦学习全局模型训练方法,其步骤为:中央服务器下发预训练的联邦学习全局模型,生成每个本地用户的本地模型梯度,对每个本地用户的本地模型梯度依次进行添加噪声,阈值量化,压缩量化,将压缩量化后的本地模型梯度上传至中央服务器,中央服务器对上传的本地模型梯度进行加权聚合并更新全局模型后下发给每个本地用户,当每个本地用户的隐私预算值耗尽或者联邦学习全局模型收敛时结束训练。本发明的方法在不损失联邦学习全局模型精确度的前提下,保护了本地用户的隐私,降低了传输过程中的通信开销,提高了联邦学习全局模型的训练效率。

    基于差分隐私和量化的联邦学习全局模型训练方法

    公开(公告)号:CN113591145B

    公开(公告)日:2024-02-23

    申请号:CN202110856897.8

    申请日:2021-07-28

    Abstract: 一种基于差分隐私和量化的联邦学习全局模型训练方法,其步骤为:中央服务器下发预训练的联邦学习全局模型,生成每个本地用户的本地模型梯度,对每个本地用户的本地模型梯度依次进行添加噪声,阈值量化,压缩量化,将压缩量化后的本地模型梯度上传至中央服务器,中央服务器对上传的本地模型梯度进行加权聚合并更新全局模型后下发给每个本地用户,当每个本地用户的隐私预算值耗尽或者联邦学习全局模型收敛时结束训练。本发明的方法在不损失联邦学习全局模型精确度的前提下,保护了本地用户的隐私,降低了传输过程中的通信开销,提高了联邦学习全局模型的训练效率。

    基于区块链的去中心化联邦学习中拜占庭攻击抵御方法

    公开(公告)号:CN114826699B

    公开(公告)日:2022-12-06

    申请号:CN202210369653.1

    申请日:2022-04-08

    Abstract: 本发明公开了一种基于区块链的去中心化联邦学习中拜占庭攻击抵御方法,主要解决去中心化联邦学习出现拜占庭攻击时现有技术的计算开销和通信开销过高问题。其实现步骤为:1)本地用户获取预训练的模型,并建立信誉对照关系;2)本地用户对模型训练后传输,然后生成签名消息并广播;3)本地用户对签名消息验证后存储,当签名消息存储了一定数量时,生成区块并利用改进的PBFT共识算法对区块共识后上链;4)本地用户对其他本地用户的传输和广播行为进行信誉对照关系的更新,然后调整签名消息的生成难度,重复执行流程直到模型收敛时结束。本发明能够有效降低现有技术的计算开销和通信开销,可用于提升去中心化联邦学习的拜占庭鲁棒性。

Patent Agency Ranking