-
公开(公告)号:CN116702883B
公开(公告)日:2024-12-03
申请号:CN202310684834.8
申请日:2023-06-09
Applicant: 北京邮电大学
Abstract: 本发明提出一种多服务器加速分割学习模型训练速度的方法,属于分布式深度学习领域;具体为:每个客户端将数据划分为数据1与数据2;客户端a使用其数据1与服务器s1进行训练,并更新模型给客户端b,s1更新其模型;客户端b使用其数据1与s1按上述方法训练,同时,客户端a使用其数据2与服务器s2按上述方法训练;客户端c继续按上述方法训练,同时,客户端b将得到的两个客户端模型聚合,基于此使用其数据2与s2继续训练。持续上述训练过程直至本轮训练结束,之后服务器通过客户端的聚合转发得到全局服务器模型,客户端通过模型转发得到最新模型,用于下一轮训练;直至完成实验设定的训练轮数。本发明加速了训练速度同时保护了模型的隐私。
-
公开(公告)号:CN116702883A
公开(公告)日:2023-09-05
申请号:CN202310684834.8
申请日:2023-06-09
Applicant: 北京邮电大学
Abstract: 本发明提出一种多服务器加速分割学习模型训练速度的方法,属于分布式深度学习领域;具体为:每个客户端将数据划分为数据1与数据2;客户端a使用其数据1与服务器s1进行训练,并更新模型给客户端b,s1更新其模型;客户端b使用其数据1与s1按上述方法训练,同时,客户端a使用其数据2与服务器s2按上述方法训练;客户端c继续按上述方法训练,同时,客户端b将得到的两个客户端模型聚合,基于此使用其数据2与s2继续训练。持续上述训练过程直至本轮训练结束,之后服务器通过客户端的聚合转发得到全局服务器模型,客户端通过模型转发得到最新模型,用于下一轮训练;直至完成实验设定的训练轮数。本发明加速了训练速度同时保护了模型的隐私。
-