-
公开(公告)号:CN110572253B
公开(公告)日:2023-03-24
申请号:CN201910872625.X
申请日:2019-09-16
Applicant: 济南大学
Abstract: 一种联邦学习训练数据隐私性增强方法及系统,所述方法包括:第一服务器生成公共参数和主密钥,将所述公共参数发送给第二服务器;参与联邦学习的多个客户端均基于所述公共参数生成各自的公钥和私钥对;联邦学习过程如下:各客户端将本地训练得到的模型参数采用各自的公钥进行加密,与相应公钥一并经由第二服务器发送给第一服务器;第一服务器基于主密钥解密,通过加权平均得到全局模型参数,分别采用各个客户端的公钥加密,并经由第二服务器发送至各个客户端;客户端基于各自的私钥解密得到全局模型参数,改进本地模型,重复上述过程,直至各客户端本地模型收敛。本发明通过采用双服务器模式结合多密钥同态加密,保证了数据和模型参数的安全。
-
公开(公告)号:CN110572253A
公开(公告)日:2019-12-13
申请号:CN201910872625.X
申请日:2019-09-16
Applicant: 济南大学
Abstract: 一种联邦学习训练数据隐私性增强方法及系统,所述方法包括:第一服务器生成公共参数和主密钥,将所述公共参数发送给第二服务器;参与联邦学习的多个客户端均基于所述公共参数生成各自的公钥和私钥对;联邦学习过程如下:各客户端将本地训练得到的模型参数采用各自的公钥进行加密,与相应公钥一并经由第二服务器发送给第一服务器;第一服务器基于主密钥解密,通过加权平均得到全局模型参数,分别采用各个客户端的公钥加密,并经由第二服务器发送至各个客户端;客户端基于各自的私钥解密得到全局模型参数,改进本地模型,重复上述过程,直至各客户端本地模型收敛。本发明通过采用双服务器模式结合多密钥同态加密,保证了数据和模型参数的安全。
-