-
公开(公告)号:CN117272017A
公开(公告)日:2023-12-22
申请号:CN202311071070.1
申请日:2023-08-23
Applicant: 北京邮电大学
IPC: G06F18/213 , G06F18/241 , G06F18/25 , G06V10/40 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0475 , G06N3/094 , G06N3/098 , G06N3/042
Abstract: 本发明提供一种异质图数据节点嵌入特征提取模型训练方法、嵌入特征提取方法、节点分类方法及装置,基于联邦学习的形式,在各客户端本地构建生成器和鉴别器利用对抗学习训练本地模型,并在中央服务器进行模型参数的聚合,有效保证数据隐私。同时,各客户端在本地训练的过程中,通过跨客户端通信,获取目标节点关联的跨客户端邻居节点的原始特征,并基于top‑k随机游走平的采样各类邻居参与到嵌入学习中,降低客户端数据差异对训练影响,提升联邦异质图神经网络的学习质量,提高了下游子任务的执行效率。
-
公开(公告)号:CN117273119B
公开(公告)日:2024-09-13
申请号:CN202311076328.7
申请日:2023-08-24
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于强化学习的动态公平联邦学习方法及装置,在一轮联邦训练中,各客户端根据各自的本地数据对服务器下发的模型进行训练,生成本地模型,并计算本地模型的本地训练损失;将本地模型、本地训练损失和本地数据规模上传至服务器进行聚合;在聚合阶段,将本地训练损失作为强化学习状态输入,根据状态及当前策略选择执行动作,根据执行动作和本地规模占比计算聚合权重,基于聚合权重完成该轮联邦聚合;根据当前全局联邦模型准确率设置奖励值,以优化强化学习;重复多轮联邦训练,直至得到最终全局联邦模型。本发明提供的方法能够在保护隐私和较小通信开销基础上,将各本地训练损失作为公平性度量,优化联邦聚合过程,实现公平联邦学习。
-
公开(公告)号:CN119761410A
公开(公告)日:2025-04-04
申请号:CN202510272823.8
申请日:2025-03-10
Applicant: 北京邮电大学
IPC: G06N3/042 , G06F17/16 , G06N3/098 , G06F18/23 , G06F18/241
Abstract: 本发明提供一种掩码遮罩的横向联邦异质图学习方法及装置,包含客户端本地训练与全局聚合两阶段。客户端基于全局服务器分发的初始参数部署本地模型,利用动态生成的掩码遮罩随机遮掩输入特征以挖掘高阶拓扑结构,通过边重构损失优化拓扑感知能力;同时随机遮掩节点属性并动态调整遮掩比例,结合一致性语义损失增强语义鲁棒性;联合节点分类损失共同更新本地参数。全局聚合阶段,服务器根据各客户端指定元路径下的边集计算聚类系数衡量图结构紧密度,结合节点数量动态分配聚合权重,融合拓扑信息丰富的客户端参数,迭代优化全局模型。本发明能够克服客户端数据动态变化导致的语义不一致问题,捕捉局部图结构价值,提升全局泛化能力与收敛效率。
-
公开(公告)号:CN117273119A
公开(公告)日:2023-12-22
申请号:CN202311076328.7
申请日:2023-08-24
Applicant: 北京邮电大学
Abstract: 本发明提供一种基于强化学习的动态公平联邦学习方法及装置,在一轮联邦训练中,各客户端根据各自的本地数据对服务器下发的模型进行训练,生成本地模型,并计算本地模型的本地训练损失;将本地模型、本地训练损失和本地数据规模上传至服务器进行聚合;在聚合阶段,将本地训练损失作为强化学习状态输入,根据状态及当前策略选择执行动作,根据执行动作和本地规模占比计算聚合权重,基于聚合权重完成该轮联邦聚合;根据当前全局联邦模型准确率设置奖励值,以优化强化学习;重复多轮联邦训练,直至得到最终全局联邦模型。本发明提供的方法能够在保护隐私和较小通信开销基础上,将各本地训练损失作为公平性度量,优化联邦聚合过程,实现公平联邦学习。
-
-
-