-
公开(公告)号:CN118070926B
公开(公告)日:2024-08-09
申请号:CN202410483842.0
申请日:2024-04-22
Applicant: 东北大学
IPC: G06N20/00
Abstract: 本发明属于联邦学习场景下的资源自适应技术领域,公开了一种基于客户端资源自适应的多任务联邦学习方法。解决异质计算资源与多任务学习场景下对联邦学习系统性能和模型训练效果的影响,提高联邦学习在资源与任务异构环境下的效率和鲁棒性。提出客户端计算资源自适应的模型弹性缩放与基于任务相关性的多任务联邦学习聚合两种关键技术,将联邦学习模型分为底层基础模型与上层任务模型,在底层基础模型上实现计算资源自适应弹性缩放与分层聚合策略。提出任务相关性多任务联邦学习聚合方法,相同任务客户端构建任务模型相似图,采用k‑core聚合方法实现任务模型稳定训练减少数据异质影响。
-
公开(公告)号:CN118070926A
公开(公告)日:2024-05-24
申请号:CN202410483842.0
申请日:2024-04-22
Applicant: 东北大学
IPC: G06N20/00
Abstract: 本发明属于联邦学习场景下的资源自适应技术领域,公开了一种基于客户端资源自适应的多任务联邦学习方法。解决异质计算资源与多任务学习场景下对联邦学习系统性能和模型训练效果的影响,提高联邦学习在资源与任务异构环境下的效率和鲁棒性。提出客户端计算资源自适应的模型弹性缩放与基于任务相关性的多任务联邦学习聚合两种关键技术,将联邦学习模型分为底层基础模型与上层任务模型,在底层基础模型上实现计算资源自适应弹性缩放与分层聚合策略。提出任务相关性多任务联邦学习聚合方法,相同任务客户端构建任务模型相似图,采用k‑core聚合方法实现任务模型稳定训练减少数据异质影响。
-