-
公开(公告)号:CN114841016A
公开(公告)日:2022-08-02
申请号:CN202210581613.3
申请日:2022-05-26
Applicant: 北京交通大学
IPC: G06F30/20 , G06F119/02
Abstract: 本申请提供一种多模型联邦学习方法、系统及存储介质,该方法包括:服务器获取待训练的模型集合;服务器采用多模型优化分配方法,生成优化分配矩阵,以将待训练模型按照优化分配矩阵分配给不同客户端;以使各个客户端按照服务器生成的优化分配矩阵的指示下载各自对应的待训练模型,完成本轮模型训练,并将训练后的模型参数上传至服务器;服务器在预设时间内接收客户端上传的模型参数,并聚合模型参数;服务器根据聚合的模型参数,确定各个待训练模型的精度和模型训练的总轮数,对达到精度要求或训练轮数超过轮数阈值的待训练模型,结束训练,其他的待训练模型进入下一轮训练。该方案在多模型训练时有显著的训练效率提升。
-
公开(公告)号:CN114841016B
公开(公告)日:2024-12-20
申请号:CN202210581613.3
申请日:2022-05-26
Applicant: 北京交通大学
IPC: G06F30/20 , G06F119/02
Abstract: 本申请提供一种多模型联邦学习方法、系统及存储介质,该方法包括:服务器获取待训练的模型集合;服务器采用多模型优化分配方法,生成优化分配矩阵,以将待训练模型按照优化分配矩阵分配给不同客户端;以使各个客户端按照服务器生成的优化分配矩阵的指示下载各自对应的待训练模型,完成本轮模型训练,并将训练后的模型参数上传至服务器;服务器在预设时间内接收客户端上传的模型参数,并聚合模型参数;服务器根据聚合的模型参数,确定各个待训练模型的精度和模型训练的总轮数,对达到精度要求或训练轮数超过轮数阈值的待训练模型,结束训练,其他的待训练模型进入下一轮训练。该方案在多模型训练时有显著的训练效率提升。
-