-
公开(公告)号:CN114793453A
公开(公告)日:2022-07-26
申请号:CN202080003605.X
申请日:2020-11-23
Applicant: 北京小米移动软件有限公司 , 北京邮电大学
IPC: G06N3/00
Abstract: 本公开是关于一种训练方法、训练装置及存储介质。其中,训练方法包括:响应于接收到模型训练请求,训练第一训练模型,其中,所述模型训练请求中包括模型压缩参数;基于所述第一训练模型和所述模型压缩参数,得到所述第一训练模型的第一压缩模型。使得压缩模型可以与训练模型具有相同的效果,从而减少在传输模型是的信令开销,并且可以保证模型的精度和可靠性,并且进一步保证了用户信息的安全性。
-
公开(公告)号:CN113222179A
公开(公告)日:2021-08-06
申请号:CN202110291738.8
申请日:2021-03-18
Applicant: 北京邮电大学
IPC: G06N20/20
Abstract: 本发明公开了一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,所述方法包括以下步骤:步骤1,客户端使用本地数据集进行本地模型训练;步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化;步骤3,客户端对稀疏化之后的矩阵进行权重量化;步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器;步骤5,服务器对接收到的权重矩阵进行解压缩,并完成联邦学习聚合。本发明的优越效果在于有效解决了联邦学习训练过程中的资源不足问题,并通过优化算法提升了联邦学习的训练精度。
-
公开(公告)号:CN113222179B
公开(公告)日:2023-06-20
申请号:CN202110291738.8
申请日:2021-03-18
Applicant: 北京邮电大学
IPC: G06N20/20
Abstract: 本发明公开了一种基于模型稀疏化与权重量化的联邦学习模型压缩方法,所述方法包括以下步骤:步骤1,客户端使用本地数据集进行本地模型训练;步骤2,客户端对本地模型训练生成的权重矩阵进行模型稀疏化;步骤3,客户端对稀疏化之后的矩阵进行权重量化;步骤4,客户端将完成压缩后的模型通过无线信道传输到服务器;步骤5,服务器对接收到的权重矩阵进行解压缩,并完成联邦学习聚合。本发明的优越效果在于有效解决了联邦学习训练过程中的资源不足问题,并通过优化算法提升了联邦学习的训练精度。
-
-