-
公开(公告)号:CN116468133A
公开(公告)日:2023-07-21
申请号:CN202310457962.9
申请日:2023-04-25
Applicant: 重庆邮电大学
IPC: G06N20/20
Abstract: 本发明涉及一种通信优化的分布式协作方法,属于机器学习领域。首先基于上一轮次全局模型与当前轮次本地模型的差异化来计算其相对熵,并根据相对熵的结果判断是否传输当前模型层,然后由服务器在不同的轮次下指定不同的量化级别来实现时间自适应量化,对于同一轮次下的不同客户端继续指定不同的量化级别来实现客户端自适应量化,以此解决带宽受限的环境下通信成本过高的问题。另外,在客户端本地训练正常的基础上,考虑传输过程频繁意外中断的情况,当客户端的地理位置不断变化时联邦学习依旧能正常训练。
-
公开(公告)号:CN116976468A
公开(公告)日:2023-10-31
申请号:CN202310968664.6
申请日:2023-08-01
IPC: G06N20/20
Abstract: 本发明涉及一种安全可靠的分布式学习方法,属于机器学习领域,具体包括以下步骤:S1:在服务器收到客户端模型后,针对每个客户端的局部迭代轮次精度来分别与局部模型测试精度、临时全局模型以及上一个时期的全局模型进行比较,计算客户端模型的信誉分数,并把信誉分数进行保存;S2:延迟梯度平均更新:客户端不间断的进行本地更新,并通过梯度校正项来补偿梯度老化现象。本发明可提高全局模型的可靠性和稳健性。
-