一种基于异构联邦的模型性能优化方法

    公开(公告)号:CN119358638A

    公开(公告)日:2025-01-24

    申请号:CN202411369670.0

    申请日:2024-09-29

    Abstract: 本发明提供一种基于异构联邦的模型性能优化方法,包括步骤:服务器将全局模型、全局原型和全局知识发送给选定的客户端,每个客户端使用全局模型初始化本地模型;在每个客户端上,利用全局原型、全局知识与本地样本计算损失函数,并进行梯度下降,执行epoch轮次后得到的本地模型,并计算本地原型与本地知识;训练完成后,客户端将本地模型、本地原型与本地知识上传到服务器。服务器聚合这些本地模型、本地原型与本地知识,形成全局模型、全局原型和全局知识,判断是否达到收敛条件或预定的训练轮数,是则结束训练,否则返回执行下一轮训练。本发明可以有效解决原型学习技术中存在的类间特征堆叠、原型偏移、类内特征堆叠的问题。

    一种基于超网络的联邦元学习方法

    公开(公告)号:CN117744764A

    公开(公告)日:2024-03-22

    申请号:CN202311751430.2

    申请日:2023-12-19

    Abstract: 本发明公开一种基于超网络的联邦元学习方法,包括以下步骤:客户端获取个性化信息和全局模型,组合形成个性化元模型;客户端进行本地元学习训练,训练完成后微调模型差和全局模型差发送到服务器;服务器收到客户端发送的模型差异和微调模型差异后,发起对超网络和全局模型的更新。本发明通过超网络生成用户对应个性化信息,服务器将超网络生成的个性化信息与全局模型相结合,为用户创建个性化元模型,从而充分利用其对用户分布的泛化能力,使用户在微调后能够更快地适应其本地数据分布。

    一种基于动量对齐技术的异构联邦学习方法

    公开(公告)号:CN118569355A

    公开(公告)日:2024-08-30

    申请号:CN202410655018.9

    申请日:2024-05-24

    Abstract: 本发明公开一种基于动量对齐技术的异构联邦学习方法,包括步骤:s1服务器将当前轮次的全局模型、全局动量发送给经过随机采样后的客户端;s2在每个选中的客户端上,使用经过全局动量加速后的全局模型作为本地模型的初始化。然后计算总体损失函数,并对初始化后的本地模型进行一定轮次的梯度下降。最后将经过梯度下降后的本地模型上传服务器;s3服务器聚合客户端上传的本地模型得到下一轮的全局模型,并计算下一轮的全局动量。本发明有效地解决了分布式学习中数据异质性导致的模型偏移问题并提高了模型的泛化性。

Patent Agency Ranking