边缘计算中基于分层张量分解的联邦学习方法

    公开(公告)号:CN110909865A

    公开(公告)日:2020-03-24

    申请号:CN201911125638.7

    申请日:2019-11-18

    Applicant: 福州大学

    Abstract: 本发明涉及一种边缘计算中基于分层张量分解的联邦学习方法。步骤S1:在云端设计有效的深度神经网络共享模型;步骤S2:根据分层张量分解方法对设计的共享模型进行压缩得到分层共享模型;步骤S3:设计分层共享模型对应的正向传播算法和反向传播算法;步骤S4:在云端对分层共享模型进行初始化并下发至参与训练的边缘节点;步骤S5:参与训练的边缘节点利用本地数据集,并根据S3设计的算法对S2得到的分层共享模型进行学习。步骤S6:在云端通过平均聚合的方式对边缘模型进行聚合。本发明在保护用户隐私的前提下实现了共享模型的分布式训练,减少分布式训练时对网络带宽的需求,降低了边缘节点的通信能耗。

    边缘计算中基于分层张量分解的联邦学习方法

    公开(公告)号:CN110909865B

    公开(公告)日:2022-08-30

    申请号:CN201911125638.7

    申请日:2019-11-18

    Applicant: 福州大学

    Abstract: 本发明涉及一种边缘计算中基于分层张量分解的联邦学习方法。步骤S1:在云端设计有效的深度神经网络共享模型;步骤S2:根据分层张量分解方法对设计的共享模型进行压缩得到分层共享模型;步骤S3:设计分层共享模型对应的正向传播算法和反向传播算法;步骤S4:在云端对分层共享模型进行初始化并下发至参与训练的边缘节点;步骤S5:参与训练的边缘节点利用本地数据集,并根据S3设计的算法对S2得到的分层共享模型进行学习。步骤S6:在云端通过平均聚合的方式对边缘模型进行聚合。本发明在保护用户隐私的前提下实现了共享模型的分布式训练,减少分布式训练时对网络带宽的需求,降低了边缘节点的通信能耗。

Patent Agency Ranking