-
公开(公告)号:CN116800641A
公开(公告)日:2023-09-22
申请号:CN202310587889.7
申请日:2023-05-19
Applicant: 北京邮电大学
IPC: H04L43/0817 , H04L43/0852 , H04L43/0829 , H04L43/0894 , H04L43/04 , H04L43/06 , H04L67/10 , H04L67/1095 , H04L67/1097 , H04L69/22
Abstract: 本发明公开了一种端侧算力网络节点资源监控和通告方法。包括以下步骤:步骤1、建立一种应用于端侧算力网络算力节点资源监控、通告系统,步骤2、感知模块采用Telegraf、cAdvisor的工具监控本节点各容器资源占用信息,步骤3、算力资源收集模块定期从算力资源数据库中抓取最新的资源数据,步骤4、分布式通告模块根据节点间链路质量信息结合选路算法计算出同步路径,步骤6、取最新的资源数据,写入算力资源数据库,步骤5、通告报文转发模块运行于内核态,在网络层实现与其它算力节点通告资源信息:本发明的优点是:有效地降低了端侧设备资源同步开销,能够应用于目前的主流的云原生计算平台架构中;提升了端侧算力网络的整体性能。
-
公开(公告)号:CN118798319A
公开(公告)日:2024-10-18
申请号:CN202410777119.3
申请日:2024-06-17
Applicant: 北京邮电大学
IPC: G06N3/098 , G06N3/084 , G06N3/0495 , G06F18/23
Abstract: 本发明公开了一种基于算力网络的云边端协同联邦学习方法及系统,该方法包括持有数据的端侧设备协同参与联邦学习,将训练的全局模型进行分割,前半网络模型同步给端侧用户;获取设备数据分布信息,基于KL散度值给出决策,将端侧设备进行分类依据网络情况以及聚类结果,制定卸载决策,将同一类的端侧设备集合的后半模型训练任务卸载到边缘侧闲置的第三方节点,接着进入联邦学习训练过程,端侧设备与边缘侧设备以及边缘聚合服务器协同完成全局模型的训练,部署更复杂的后半网络模型,与对应的边缘侧模型进行互蒸馏,训练进入迭代,直至边端侧模型收敛。本发明综合编排调度网络中云边端算力资源,加速联邦学习训练并提升联邦学习模型性能。
-