-
公开(公告)号:CN113723619B
公开(公告)日:2024-06-21
申请号:CN202111013367.3
申请日:2021-08-31
Applicant: 南京大学
IPC: G06F30/27
Abstract: 本发明提供了一种基于训练阶段感知策略的联邦学习训练方法,包括:S1各个客户端将其机器学习模型参数更新值以及损失函数更新值发送给服务器端;S2服务器端按照聚合参数C聚合最先传送到的C部分客户端的更新,并设置计时器衡量客户端性能以及识别离线客户端;S3服务器端根据聚合后的数据进行模型参数更新,根据损失函数更新值感知系统所处的训练阶段,结合训练进程和性能信息调整下一轮计算所需使用的本地计算周期和聚合部分;S4更新本地机器学习模型参数以及本地运行参数,并开始新一轮计算直到收敛。本发明采用可动态调整的参数设置以适配不同的联邦学习场景,充分发挥系统性能解决通信同步瓶颈。
-
公开(公告)号:CN112488324A
公开(公告)日:2021-03-12
申请号:CN202011555400.0
申请日:2020-12-24
Applicant: 南京大学
Abstract: 本发明公开了一种基于版本控制的分布式机器学习模型更新方法,包括:工作节点基于本地参数以及其版本进行梯度计算和版本传递,随后发送包含版本信息的push请求向服务器节点通信;参数服务器将根据push请求的版本信息判断所属工作节点的通信合法性,并进行相应的操作;参数服务器收集梯度,并根据强化学习方法所得到的控制信息控制全局参数更新和通信;参数服务器发送当前最新全局参数以及版本信息,接收到的工作节点进行本地参数以及版本的更新。本发明能够采用版本控制动态评估当前分布式系统的硬件效率和统计效率,并且采用在线强化学习方法动态追踪两者的最佳权衡以实现最优整体性能。
-
公开(公告)号:CN112488324B
公开(公告)日:2024-03-22
申请号:CN202011555400.0
申请日:2020-12-24
Applicant: 南京大学
Abstract: 本发明公开了一种基于版本控制的分布式机器学习模型更新方法,包括:工作节点基于本地参数以及其版本进行梯度计算和版本传递,随后发送包含版本信息的push请求向服务器节点通信;参数服务器将根据push请求的版本信息判断所属工作节点的通信合法性,并进行相应的操作;参数服务器收集梯度,并根据强化学习方法所得到的控制信息控制全局参数更新和通信;参数服务器发送当前最新全局参数以及版本信息,接收到的工作节点进行本地参数以及版本的更新。本发明能够采用版本控制动态评估当前分布式系统的硬件效率和统计效率,并且采用在线强化学习方法动态追踪两者的最佳权衡以实现最优整体性能。
-
公开(公告)号:CN113723619A
公开(公告)日:2021-11-30
申请号:CN202111013367.3
申请日:2021-08-31
Applicant: 南京大学
Abstract: 本发明提供了一种基于训练阶段感知策略的联邦学习训练方法,包括:S1各个客户端将其机器学习模型参数更新值以及损失函数更新值发送给服务器端;S2服务器端按照聚合参数C聚合最先传送到的C部分客户端的更新,并设置计时器衡量客户端性能以及识别离线客户端;S3服务器端根据聚合后的数据进行模型参数更新,根据损失函数更新值感知系统所处的训练阶段,结合训练进程和性能信息调整下一轮计算所需使用的本地计算周期和聚合部分;S4更新本地机器学习模型参数以及本地运行参数,并开始新一轮计算直到收敛。本发明采用可动态调整的参数设置以适配不同的联邦学习场景,充分发挥系统性能解决通信同步瓶颈。
-
-
-