-
公开(公告)号:CN113672684B
公开(公告)日:2023-04-21
申请号:CN202110959654.7
申请日:2021-08-20
Applicant: 电子科技大学
Abstract: 本发明提供了一种面向非独立同分布数据的分层用户训练管理系统及方法,该方法包括联邦学习用户数据分布相似性评估方法、分组方法和训练方法,在保护用户标签的前提下通过计算节点数据分布和全局分布的相似性对用户进行评分,其中全局参数服务器根据用户评分进行合理的分组处理,使组间数据分布近似均匀,解决非独立同分布问题。同时,可根据用户的需求设置并行度增长曲线,使训练从串行向并行转化,在保证模型收敛速度和精度的情况下保证模型的并行度,节省训练时间,本发明将全同步算法与序列联邦学习算法相结合,在保证模型并行度的前提下大幅度提高训练精度和收敛速度、显著减少通信负载、节省计算资源,提高联邦学习的训练效果。
-
公开(公告)号:CN111444021B
公开(公告)日:2023-03-24
申请号:CN202010254049.5
申请日:2020-04-02
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于分布式机器学习的同步训练方法、服务器及系统,状态查询服务器的训练方法包括监听来自计算服务器的状态消息,更新状态数据库中当前计算服务器的状态,根据状态数据库中所有计算服务器的实时状态和任务进度决策当前计算服务器的下一动作,并将携带下一动作的状态响应消息发送给当前计算服务器;计算服务器的训练方法包括循环执行以下动作:向状态查询服务器发送状态消息,根据状态查询服务器反馈的状态响应消息决定下一动作:继续本地计算,或立即全局聚合。服务器系统由通过广域网互联的中心机构与若干参与机构的服务器构成;中心机构包括参数服务器和状态查询服务器;参与机构包括数据库服务器和计算服务器。
-
公开(公告)号:CN110990140B
公开(公告)日:2023-03-14
申请号:CN201911257668.3
申请日:2019-12-10
Applicant: 电子科技大学
Abstract: 本发明公开了一种光电交换网络中分布式机器学习流的调度方法,先利用HLF算法计算每一个任务中流的调度顺序及该任务单次迭代的通信时间,然后再根据SWRTF算法调度多个DML任务;其中,对于多个DML任务,首先根据SWRTF算法中的优先级定义计算出每个任务的优先级,然后选择具有最高优先级的任务,并使用HLF算法得到的流调度顺序调度这个任务的流,当这个任务完成通信阶段,转入计算阶段后,又重新选择可调度的、具有最高优先级的任务,直到所有任务都完成。
-
公开(公告)号:CN110958187B
公开(公告)日:2021-05-18
申请号:CN201911300999.0
申请日:2019-12-17
Applicant: 电子科技大学
IPC: H04L12/851 , H04L29/06 , G06F16/906 , G06N20/00
Abstract: 本发明公开了一种面向分布式机器学习参数同步差异化数据传输方法,将等待同步的结构化梯度张量按照其张量结构,从更细粒度进行数据拆分之后衡量数据对模型收敛的贡献,依据梯度的贡献度,本发明提供差异化传输质量(可靠性、传输时延)的梯度传输方案;对模型收敛贡献度高的数据得到更高的传输可靠性和更低的传输时延;差异化的梯度数据传输方法使得在有限的网络资源下,数据传输更加高效;从而解决在保证模型收敛的同时降低参数同步的通信开销的问题。
-
公开(公告)号:CN110958187A
公开(公告)日:2020-04-03
申请号:CN201911300999.0
申请日:2019-12-17
Applicant: 电子科技大学
IPC: H04L12/851 , H04L29/06 , G06F16/906 , G06N20/00
Abstract: 本发明公开了一种面向分布式机器学习参数同步差异化数据传输方法,将等待同步的结构化梯度张量按照其张量结构,从更细粒度进行数据拆分之后衡量数据对模型收敛的贡献,依据梯度的贡献度,本发明提供差异化传输质量(可靠性、传输时延)的梯度传输方案;对模型收敛贡献度高的数据得到更高的传输可靠性和更低的传输时延;差异化的梯度数据传输方法使得在有限的网络资源下,数据传输更加高效;从而解决在保证模型收敛的同时降低参数同步的通信开销的问题。
-
公开(公告)号:CN113672684A
公开(公告)日:2021-11-19
申请号:CN202110959654.7
申请日:2021-08-20
Applicant: 电子科技大学
Abstract: 本发明提供了一种面向非独立同分布数据的分层用户训练管理系统及方法,该方法包括联邦学习用户数据分布相似性评估方法、分组方法和训练方法,在保护用户标签的前提下通过计算节点数据分布和全局分布的相似性对用户进行评分,其中全局参数服务器根据用户评分进行合理的分组处理,使组间数据分布近似均匀,解决非独立同分布问题。同时,可根据用户的需求设置并行度增长曲线,使训练从串行向并行转化,在保证模型收敛速度和精度的情况下保证模型的并行度,节省训练时间,本发明将全同步算法与序列联邦学习算法相结合,在保证模型并行度的前提下大幅度提高训练精度和收敛速度、显著减少通信负载、节省计算资源,提高联邦学习的训练效果。
-
公开(公告)号:CN118780267A
公开(公告)日:2024-10-15
申请号:CN202410857819.3
申请日:2024-06-28
Applicant: 电子科技大学
IPC: G06F40/205 , G06F18/40 , G06Q50/50
Abstract: 本发明公开了一种基于自然语言意图交互的网络管理智能体,包括:用户交互模块、工具箱、提示词、大语言模型和代码解释器;用户交互模块用于用户配置、用户与智能体的交互和网络管理的过程和结果的可视化显示;工具箱为智能体可调用的工具集合;提示词为大语言模型的输入,用于指导了大模型输出符合规范的专业性的意图实现方案;大语言模型为预置且训练好的大语言模型,该大语言模型以提示词作为输入,输出按预定格式输出,其输出内容包括意图解析结果和网络配置指令;并将大语言模型输出的网络配置指令发送至代码解释器;再匹配并调用工具箱中的对应工具执行网络配置指令并通过用户交互模块向用户返回执行结果。本发明的应用,可提升管理效率、降低用户门槛、增强网络管理的部署灵活性,以及降低物理网络基础设施的投入和运维成本,同时提高资源的利用率。
-
公开(公告)号:CN112100659B
公开(公告)日:2023-04-07
申请号:CN202010963388.0
申请日:2020-09-14
Applicant: 电子科技大学
Abstract: 本发明公开了一种区块链联邦学习系统及拜占庭攻击检测方法,其中区块链联邦学习系统包括数据持有者、验证器、矿工和任务发布者;若干个验证器构成验证器组,每个验证器组与一个矿工相连接构成边缘云,每个数据持有者随机与附近边缘云的验证器组中的任一验证器相连接;所有边缘云的矿工构建区块链网络,并通过区块链网络与任务发布者相连。本区块链联邦学习系统可部署于包含移动边缘计算、微数据中心、微云在内的多种边缘计算场景中,利用边缘基础设施的充足计算、通信、存储资源来均衡验证负载,从而减小验证时延,提高系统效率。本方法可以容忍负精度增益的本地模型,能够在保障模型精度无损的前提下取得高检测率。
-
公开(公告)号:CN110995488A
公开(公告)日:2020-04-10
申请号:CN201911220964.6
申请日:2019-12-03
Applicant: 电子科技大学
Abstract: 本发明公开了一种基于分层参数服务器的多机构协同学习系统,包括中心机构,以及与所述中心机构通过WAN网连接的若干个参与机构。基于上述系统,本发明还公开了一种基于分层参数服务器的多机构协同学习方法。本发明解决了大数据的数据孤岛问题,解决了多方协作时的数据隐私安全问题,解决了现有系统的高通信代价、高维护成本、高安全风险、低资源利用率问题。本发明在保障数据隐私安全的前提下实现了通信高效、计算高效的多方协同学习,适用于多独立机构、多数据中心的跨域互联。本发明所提出的系统支持平台模式和参与模式,既能用作平台提供多方知识融合服务,也能用作工具支持多个独立机构间的共享协作。
-
公开(公告)号:CN117474081A
公开(公告)日:2024-01-30
申请号:CN202311408427.0
申请日:2023-10-25
Applicant: 电子科技大学
Abstract: 本发明公开了基于自适应拓扑和辅助路由的分布式机器学习训练系统,包括:用户平面,用于提供构建拓扑的自定义策略;调度平面,包括网络感知模块、策略制定模块以及策略一致性模块;数据平面,包括策略执行模块和网络测量模块。本发明缓解了多智算中心跨广域互联的通信瓶颈问题,解决了现有分布式机器学习系统在资源异构且动态变化的广域网络中效能受限的问题。
-
-
-
-
-
-
-
-
-