-
公开(公告)号:CN114760252A
公开(公告)日:2022-07-15
申请号:CN202210297048.8
申请日:2022-03-24
Applicant: 北京邮电大学
IPC: H04L47/263 , H04L47/25 , H04L47/10
Abstract: 本申请提供一种数据中心网络拥塞控制方法及系统,方法包括:周期性获取数据中心网络中的与自身连接的各个终端发送数据包到相同目的终端的当前数据包总长度;若监测到所述目的终端的数据包总长度超过该目的终端对应的拥塞阈值,则生成针对该目的终端的拥塞通知报文;将所述拥塞通知报文分别发送至与自身连接的各个所述终端,以使终端获取对应的暂停发送时间并在该暂停发送时间的计时期内暂停数据包的发送。本申请能够大大缩短拥塞信号的反馈时间,使得作为数据包发送端的终端能够更加快速地响应网内拥塞,并能够有效减少在收敛过程中额外数据包的发送,降低交换机端口的队列堆积,进而能够提高数据中心网络拥塞控制过程的效率及可靠性。
-
公开(公告)号:CN112437012B
公开(公告)日:2022-06-21
申请号:CN202011079310.9
申请日:2020-10-10
Applicant: 网络通信与安全紫金山实验室 , 北京邮电大学
IPC: H04L45/7453 , H04L45/74 , H04L67/1031 , H04L67/1029 , H04L67/1004 , H04L41/0894 , H04L41/0816
Abstract: 本发明公开了一种流量调度方法、VNF集群缩扩容方法以及相关装置,属于通信技术领域,其中一种流量调度方法,包括:网络控制器获取进入交换机的全部数据包数量,并从大流流表获取第一流表项的数据;VNF管理器获取每个VNF实例的状态;网络控制器和VNF管理器将收集上来的信息会汇总到编排器中,编排器根据预设的算法计算最佳的大流调度策略;网络控制器向大流流表下发所述第二流表项,当第二组数据包进入交换机时,所述第二组数据包与所述第二流表项进行匹配;该方法从流量中的流大小分布出发,提出使用流表来精确调度大流,这种方式能够在大规模场景下面对海量流量时,实现集群内部实例的负载均衡,同时降低流迁移和实例缩扩容带来的开销。
-
公开(公告)号:CN113746802A
公开(公告)日:2021-12-03
申请号:CN202110881946.3
申请日:2021-08-02
Applicant: 北京邮电大学
Abstract: 本申请实施例提供一种网络功能虚拟化中的方法以及本地状态和远程状态全存储的VNF装置,所述方法包括:生成虚拟化网络功能的状态;将所述状态分别储存至本地内存以及远程数据存储库,其中,所述本地内存中的状态用于所述虚拟化网络功能VNF的访问以及读取,所述远程数据存储库中的状态用于对所述状态的确认。本申请能够提高VNF的故障恢复能力以及缩扩容能力,同时保证时延不受影响,实现了状态的同步。
-
公开(公告)号:CN110022230B
公开(公告)日:2021-03-16
申请号:CN201910192438.7
申请日:2019-03-14
Applicant: 北京邮电大学 , 中国电子科技集团公司第五十四研究所
Abstract: 本发明公开了一种基于深度强化学习的服务链并行部署方法及装置,其中,该方法包括:对离线的服务链部署问题进行数学建模,以得到服务链部署问题的数学公式;根据数学公式为所有服务链中的共享的VNF选择放置服务器位置,其中,通过深度强化学习中的DQN来选择可共享的VNF的服务器位置,以生成多个子服务链;通过最短路径原则将多个子服务链连成完整服务链,并为没有指定放置位置的VNF选择部署服务器。该方法解决了因为串行部署而忽略服务链中的VNF、以及服务链之间的相关性而导致的分配不合理,有效地提高资源的共享率和利用率,采用深度强化学习,降低了计算的复杂度。
-
公开(公告)号:CN112437012A
公开(公告)日:2021-03-02
申请号:CN202011079310.9
申请日:2020-10-10
Applicant: 网络通信与安全紫金山实验室 , 北京邮电大学
IPC: H04L12/743 , H04L12/741 , H04L29/08 , H04L12/24
Abstract: 本发明公开了一种流量调度方法、VNF集群缩扩容方法以及相关装置,属于通信技术领域,其中一种流量调度方法,包括:网络控制器获取进入交换机的全部数据包数量,并从大流流表获取第一流表项的数据;VNF管理器获取每个VNF实例的状态;网络控制器和VNF管理器将收集上来的信息会汇总到编排器中,编排器根据预设的算法计算最佳的大流调度策略;网络控制器向大流流表下发所述第二流表项,当第二组数据包进入交换机时,所述第二组数据包与所述第二流表项进行匹配;该方法从流量中的流大小分布出发,提出使用流表来精确调度大流,这种方式能够在大规模场景下面对海量流量时,实现集群内部实例的负载均衡,同时降低流迁移和实例缩扩容带来的开销。
-
公开(公告)号:CN109960586B
公开(公告)日:2021-02-12
申请号:CN201910122857.3
申请日:2019-02-19
Applicant: 北京邮电大学
IPC: G06F9/50
Abstract: 本发明公开了一种服务器状态可感知的四层负载均衡器及均衡方法,其中,均衡器包括:通信模块,用于接收服务器的记录消息,并根据记录消息将对应的表项插入连接表;数据存储模块,用于每隔预设时长采集DIP资源池的信息,并发布状态更新事件;权值更新模块,用于根据状态更新事件进行状态分析,并分配权值,其中,根据服务器的当前运行状态得到权值,并控制通信模块将权值分配转化为表项后插入到路由表中,以根据当前运行状态实现智能化负载均衡。该均衡器可以根据服务器当前运行状态进行智能化负载均衡,降低后台服务器超载概率,同时也可以保持可编程交换机在性能和灵活性上的优势。
-
公开(公告)号:CN108075990B
公开(公告)日:2020-09-11
申请号:CN201810091958.4
申请日:2018-01-30
Applicant: 北京邮电大学
IPC: H04L12/911 , H04L12/24
Abstract: 本发明公开了一种资源感知的服务链备份节点分配算法及装置,其中,算法包括:对资源感知的服务链备份问题进行数学建模,以根据服务链备份问题和最佳备份方案的条件得到求解最优方案的问题公式;根据求解最优方案的问题公式得到数学模型中变量的变量范围,其中,变量为服务链中每个VNF分配的备份节点的数量;根据数学模型的变量范围且通过差分优化求得最优解,以得到服务链备份节点分配结果。该算法可以实现在满足服务链整体可靠性的同时,使备份节点占用的资源量最小。
-
公开(公告)号:CN108390713B
公开(公告)日:2020-09-04
申请号:CN201810127076.9
申请日:2018-02-08
Applicant: 北京邮电大学
IPC: H04B7/185
Abstract: 本发明实施例提供了低轨道卫星通信网络的移动通信方法及系统,通过以移动终端的位置信息取代现有技术中根据接入点链路信息配置的CoA,并协同接入卫星将移动终端的位置信息发送至控制中心更新存储,用于定位移动终端。当移动终端完成位置更新后一段时间内不再移动时,由于自身位置没有改变,因此,即使卫星运动导致该移动终端的接入卫星发生变化,也不必再次与控制中心进行交互以更新位置,降低了信令交互,减少了低轨道卫星通信网络中的通信的时延和带宽占用。
-
公开(公告)号:CN109039900B
公开(公告)日:2020-06-12
申请号:CN201810909726.5
申请日:2018-08-10
Applicant: 北京邮电大学
IPC: H04L12/721 , H04L12/801
Abstract: 本发明实施例提供了一种发送credit包的停止信号的方法和装置,应用于上游路由器,其中,方法包括:在接收到来自预设的下游路由器的credit包之后,若待发送的数据包的数量不为零,则计算在预设时长内,预设的下游路由器以当前credit包的发送速率发送credit包的数量,将所述credit包的数量作为上游路由器接收credit包的预期接收数量,预设时长为数据包从上游路由器传输到预设的下游路由器所用的时长;若预期接收数量大于或等于待发送的数据包的数量,则向预设的下游路由器发送credit包的停止信号。应用本发明实施例能够避免由于传输无用的credit包而对其他数据包的传输效率造成不良影响。
-
公开(公告)号:CN108664116B
公开(公告)日:2020-03-27
申请号:CN201810389653.1
申请日:2018-04-27
Applicant: 北京邮电大学
IPC: G06F1/3287 , G06F1/329 , G06F9/50
Abstract: 本发明公开了一种网络功能虚拟化的自适应省电方法及装置,其中,方法包括以下步骤:按照预设频率发送查询指令,以获取每个CPU的工作进程信息;根据每个CPU的工作进程信息检测每个CPU负载状况,以确定是否有CPU处于低负载工况;如果存在至少两个CPU处于低负载工况,则将低负载工况的CPU进行合并;根据每个CPU进程中消息队列的队列长度确定是否有CPU处于高负载工况;如果存在CPU处于高负载工况,则通过进程切分机制为队列拥塞或即将堵塞的工作进程分配CPU资源,以启动休眠的CPU核心投入工作。该方法可以有效的改善在通用处理器上部署的NFV能效较低的问题,提高NFV能耗,提升系统性能。
-
-
-
-
-
-
-
-
-