-
公开(公告)号:CN112232527A
公开(公告)日:2021-01-15
申请号:CN202010996487.9
申请日:2020-09-21
Applicant: 北京邮电大学
IPC: G06N20/20
Abstract: 本说明书一个或多个实施例提供一种安全的分布式联邦深度学习方法,以保护联邦深度学习过程中的参与方的原始数据,同时避免学习模型的参数泄露参与方的原始数据。各个参与方经过身份认证后加入超级账本,由一个节点给出初始模型和初始参数;根据智能合约将参与方划分为聚合节点和普通节点;普通节点接收到模型后进行训练并将训练结果进行加密并传送至聚合节点,聚合节点接收到加密模型后执行聚合操作并将结果传送至普通节点,普通节点接收到聚合结果后将其解密并进行训练;普通节点将聚合结果解密后需验证模型效果,并通过智能合约投票是否终止学习。本发明提出的方法不假设存在半诚实的“中央服务器”,提高了算法的安全性,且更贴近实际场景。
-
公开(公告)号:CN112232527B
公开(公告)日:2024-01-23
申请号:CN202010996487.9
申请日:2020-09-21
Applicant: 北京邮电大学
IPC: G06N20/20
Abstract: 本说明书一个或多个实施例提供一种安全的分布式联邦深度学习方法,以保护联邦深度学习过程中的参与方的原始数据,同时避免学习模型的参数泄露参与方的原始数据。各个参与方经过身份认证后加入超级账本,由一个节点给出初始模型和初始参数;根据智能合约将参与方划分为聚合节点和普通节点;普通节点接收到模型后进行训练并将训练结果进行加密并传送至聚合节点,聚合节点接收到加密模型后执行聚合操作并将结果传送至普通节点,普通节点接收到聚合结果后将其解密并进行训练;普通节点将聚合结果解密后需验证模型效果,并通过智能合约投票是否终止学习。本发明提出的方法不假设存在半诚实的“中央服务器”,提高了算法的安全性,且更贴近实际场景。
-