-
公开(公告)号:CN115983340A
公开(公告)日:2023-04-18
申请号:CN202211648157.6
申请日:2022-12-21
Applicant: 南京理工大学
IPC: G06N3/0464 , G06N3/048 , G06N3/098 , G06F18/241 , G06F9/50
Abstract: 本申请提供一种基于即插即用异构模型的联邦学习方法,包括:步骤1:训练生成模型:步骤2:初始化模型:步骤3:在各个客户端中训练客户端模型Mi,包括:步骤4:服务器聚合:在服务器端聚合来自客户端i的采样数据di~x~,y~∈d~,以及包括参与训练的数据量在内的参数;步骤5:服务器端数据分配:将采样数据集d~按照各个客户端私有数据的数据类别分布权重重新分配为子数据集di;并分配给各个客户端;步骤6:模型测试:步骤7:服务器端判断是否继续下一次通信。本申请提高了提高了模型训练的效果和效率。
-
公开(公告)号:CN115879542A
公开(公告)日:2023-03-31
申请号:CN202211647916.7
申请日:2022-12-21
Applicant: 南京理工大学
IPC: G06N3/098 , G06N3/084 , G06N3/0475 , G06N3/045
Abstract: 本申请提供一种面向非独立同分布异构数据的联邦学习方法,方法包括:模型初始化:客户端训练:使用客户端分配的私有数据xi和服务器端共享的条件生成模型G(z|y)训练本地的分类模型Ei(x);训练生成模型:在服务器端利用各个客户端模型Ei(x)和服务器端模型E(x)训练条件生成网络G;聚合参数;将当前轮次聚合之后的新模型E(x)当前参数传播给所有客户端模型;模型测试;服务器端判断是否继续下一次通信,若继续下一次通信,则返回前述步骤,否则结束通信,保存全局网络模型参数。本申请削弱数据量过少以及数据分布不均衡导致的全局网络模型训练不足问题。
-