-
公开(公告)号:CN114710571A
公开(公告)日:2022-07-05
申请号:CN202210338328.9
申请日:2022-04-01
Applicant: 中国人民解放军战略支援部队信息工程大学 , 之江实验室
Abstract: 本申请公开了一种数据包处理系统,异构资源一体化调度模组在线重构高性能报文交换模组的多个流水线逻辑,并将业务流表拆分为多个流表项,将流表项加载至对应的流水线逻辑,每个流水线逻辑对应一种网络协议类型的数据包处理逻辑;高性能报文交换模组接收数据包,确定数据包对应的目标网络协议类型,利用与目标网络协议类型对应的流水线逻辑中的流表项将数据包发送至智能网络线卡模组;智能网络线卡模组接收数据包,利用与目标网络协议类型对应的异构资源组合对数据包进行处理,并将处理后的数据包返回高性能报文交换模组,由高性能报文交换模组对处理后的数据包进行转发。该系统能够实现多种网络技术体制并存环境下的协议无关数据包处理。
-
公开(公告)号:CN114710571B
公开(公告)日:2023-05-23
申请号:CN202210338328.9
申请日:2022-04-01
Applicant: 中国人民解放军战略支援部队信息工程大学 , 之江实验室
Abstract: 本申请公开了一种数据包处理系统,异构资源一体化调度模组在线重构高性能报文交换模组的多个流水线逻辑,并将业务流表拆分为多个流表项,将流表项加载至对应的流水线逻辑,每个流水线逻辑对应一种网络协议类型的数据包处理逻辑;高性能报文交换模组接收数据包,确定数据包对应的目标网络协议类型,利用与目标网络协议类型对应的流水线逻辑中的流表项将数据包发送至智能网络线卡模组;智能网络线卡模组接收数据包,利用与目标网络协议类型对应的异构资源组合对数据包进行处理,并将处理后的数据包返回高性能报文交换模组,由高性能报文交换模组对处理后的数据包进行转发。该系统能够实现多种网络技术体制并存环境下的协议无关数据包处理。
-
公开(公告)号:CN120075122A
公开(公告)日:2025-05-30
申请号:CN202510528050.5
申请日:2025-04-25
Applicant: 之江实验室
IPC: H04L45/02 , H04L45/12 , H04L47/125 , H04L47/283 , H04L49/356 , G06N3/098
Abstract: 本发明公开了一种面向分布式大模型训练的通信调度方法、电子设备、介质,包括:获取服务器集群规模、度数及AllReduce与MP流量的传输需求比例,按两类流量需求比例拆分为AllReduce流量、MP流量子拓扑的度数,基于此构建AllReduce子拓扑和MP子拓扑,组合得到拓扑图,并利用光交换机实现物理拓扑;当流量变化时,获取所有分布式大模型训练任务数组、链路数组、候选放置位置数组;根据拓扑图中构建每一候选放置位置对应的亲和图,计算亲和图中所有链路的兼容性得分,得到最佳放置位置;计算最佳放置位置对应的亲和图中所有连接子图的时延,将其总和作为总时延,以总时延最小为优化目标;根据最佳放置位置以及总时延在物理拓扑上进行分布式大模型训练。
-
公开(公告)号:CN119420659B
公开(公告)日:2025-04-01
申请号:CN202510013310.5
申请日:2025-01-06
Applicant: 之江实验室
IPC: H04L41/142 , H04L47/125
Abstract: 本发明公开了一种多模态网络环境下网络模态共存的优化部署方法,属于多模态智慧网络领域。本方法包括:将网络模态的部署问题建模为0‑1整数规划问题,综合考虑多模态网元资源、链路资源和流量转发延迟等关键约束,以保证用户服务质量;同时,通过联合路由优化,确保每种网络模态的连通性;针对原问题的非凸性,本发明将其转换为等价的0‑1整数线性规划问题,并设计了一种基于随机舍入的网络模态部署与路由选择算法;该算法能够在有限资源条件下实现网络模态的高效部署,并保证网络性能。本发明所提出的方法有效降低了链路负载,并在保障服务质量的前提下提高了网络资源的利用率。
-
公开(公告)号:CN118519642B
公开(公告)日:2024-09-27
申请号:CN202410968709.4
申请日:2024-07-19
Applicant: 之江实验室
Abstract: 本发明涉及一种基于资源能力表述的网络编程逻辑功能与网络资源拟合匹配方法,包括构建资源种类与能力的模型表述;解析数据面逻辑以确定出所需的资源种类与能力;进行资源拟合与能力匹配操作,输出得到拟合结果,用于将网络编程逻辑功能部署在网络资源中并运行。与现有技术相比,本发明通过构建资源种类与能力的模型表述,通过解析数据面逻辑,以提炼出数据面所需的资源种类与能力概述,再通过与对应的网络设备资源进行功能拟合匹配,能够实现数据面逻辑功能依据设备的资源能力进行部署,提高网络效率和资源利用率。
-
公开(公告)号:CN118426752A
公开(公告)日:2024-08-02
申请号:CN202410866695.5
申请日:2024-07-01
Applicant: 之江实验室
Abstract: 本发明公开了一种基于网络编程语言的逻辑表示的转换方法和装置,方法包括以下步骤:对网络编程语言P4程序代码或其中间表示进行P4语法解析,得到网络编程语言逻辑结构以及多类别的网络编程逻辑资源;根据类别对网络编程逻辑资源进行编排得到网络编程逻辑资源管理库,对网络编程逻辑资源进行分类记录管理;基于网络编程语言逻辑结构对网络编程逻辑资源进行结构转换得到网络编程逻辑表示,以建模网络编程逻辑资源管理库中网络编程逻辑资源间的逻辑关联关系。本发明能够将基于通用的网络编程语言或者通用网络编程语言的中间表示转换为逻辑资源管理库及相应的逻辑表示,有助于快速开发IR映射到特定目标的后端的编译程序,提高工作效率。
-
公开(公告)号:CN117955908A
公开(公告)日:2024-04-30
申请号:CN202410357849.8
申请日:2024-03-27
Applicant: 之江实验室
IPC: H04L45/76 , H04L41/0895 , H04L41/40
Abstract: 本申请涉及一种基于SDN控制器的NDN网络切片方法、装置、设备和介质,其中,计算所述NDN路由器的不同度量特性的切片路径,获得所述切片路径的转发表;将所述转发表下发至所述NDN路由器;基于NDN报文的度量特性,在所述NDN路由器上选择所述转发表中对应的切片路径将所述NDN报文进行路由转发。解决了NDN网络无法满足不同类型业务对网络性能的差异化需求的问题,实现了NDN网络中不同业务流量的隔离,从而满足不同通信传输业务特性的需求。
-
公开(公告)号:CN117319287A
公开(公告)日:2023-12-29
申请号:CN202311585505.4
申请日:2023-11-27
Applicant: 之江实验室
Abstract: 本发明公开了一种基于多智能体强化学习的网络可扩展路由方法与系统,通过PageRank算法对网络节点重要性进行建模,并选取网络中的关键节点,然后在若干个关键网络节点上训练Actor网络,在SDN控制器上训练Critic网络,基于多智能体强化学习进行网络流量的逐跳路由,实现大型数据中心网络的可扩展路由。通过本发明既提升了路由方案的稳定性又降低了大型网络中路由寻优的复杂度;同时不需要传统监督学习方法中的带标签的样本,通过与环境反复交互获得实时反馈的样本,以指导模型的迭代和优化;奖励函数的设计综合考虑了网络链路的吞吐量、时延和丢包率,通过多种指标加权指导多智能体生成最优的流量路由策略。
-
公开(公告)号:CN117319283A
公开(公告)日:2023-12-29
申请号:CN202311047597.0
申请日:2023-08-17
Applicant: 之江实验室
Abstract: 本发明提供了一种融合地理分布式机器学习多维特征的梯度传输方法,包括:由全局调度器收集分散在不同地理位置的多维特征,生成计算调度任务,并将计算结果转化为调度策略分发至网络节点和计算节点;由网络节点接收全局调度器发送的调度策略,根据调度策略更新路由转发表,并由计算节点接收全局调度器发送的端到端调度策略,并根据策略执行传输调度。本发明在链路带宽资源动态变化和拓扑结构非对称的广域网场景下,如何利用不同参数更新对模型收敛重要度的差异性以及模型训练对不完整参数更新的容忍性,并基于此建立传输模型和数学模型将这些特征应用于数据的传输优化设计中实现自适应的传输服务,降低梯度数据的传输完成时间。
-
公开(公告)号:CN117177377A
公开(公告)日:2023-12-05
申请号:CN202311208042.X
申请日:2023-09-19
Applicant: 之江实验室
IPC: H04W72/543 , G06N20/20
Abstract: 本发明公开了一种面向分布式训练的协作式梯度网内聚合调度方法和装置。其中,该方法,包括:根据收集到的网络资源信息和预定义的模型分区确定各worker节点上子模型对应的目标聚合节点;根据各worker节点上子模型对应的目标聚合节点,将各worker节点上划分得到的子模型训练后的梯度分片进标记;当梯度分片到达聚合节点时,将聚合节点的标识与梯度分片的标记进行比对,若不匹配则进行转发;若匹配,则将梯度分片分配到当前聚合节点特定的内存单元进行聚合;PS节点进行全局聚合,并将全局聚合后更新的参数发送至所有worker节点。本发明的技术方案,通过协作网内聚合执行梯度调度,实现了在可编程交换机上聚合异步到达的梯度并加速分布式训练。
-
-
-
-
-
-
-
-
-