联邦学习模型压缩方法、用户端、服务器及系统

    公开(公告)号:CN116610950A

    公开(公告)日:2023-08-18

    申请号:CN202310524531.X

    申请日:2023-05-10

    Abstract: 本申请公开一种联邦学习模型压缩方法、用户端、服务器及系统,属于通信技术领域。该方法包括:获取至少一个目标应用对应的本地模型;基于目标应用的性能指标,确定本地模型的压缩策略;基于压缩策略对本地模型进行压缩处理,得到本地压缩模型和本地压缩模型对应的压缩标识;将本地压缩模型和压缩标识上传至服务器进行模型聚合处理,获取服务器下发的全局模型参数;基于全局模型参数,更新本地模型。这样,根据应用的性能指标,选取合适的压缩策略进行模型压缩,在联邦学习模型部署至多个设备的基础上,可以降低通信成本,同时最大化联邦学习模型参数的精确度,显著提高用户的体验感。

    一种异构无线网络下的联邦学习采样方法和系统

    公开(公告)号:CN118446331A

    公开(公告)日:2024-08-06

    申请号:CN202410216129.X

    申请日:2024-02-27

    Abstract: 本发明提供一种异构无线网络下的联邦学习采样方法和系统,所述方法包括:向客户端发送用于联邦学习训练的初始模型和预设参数,由客户端基于初始模型和预设参数展开联邦学习训练;从客户端获取客户端参数,并统计总客户端数量和总数据量;向全部客户端下发预设采样概率和第一训练指令,计算每个轮次数所对应的全局模型误差精度;基于客户端回传的本地模型参数进行收敛性分析,基于联邦学习收敛性分析结果推出从初始模型收敛到预设误差精度时所需的轮次数;保留独立采样概率为未知参量,计算在独立采样概率下的轮次时间的期望值;计算从初始模型收敛到预设误差精度时所需的系统时间,求解满足使系统时间最小的针对各个客户端的独立采样概率。

Patent Agency Ranking