-
公开(公告)号:CN110830283B
公开(公告)日:2021-10-15
申请号:CN201810919141.1
申请日:2018-08-10
Applicant: 华为技术有限公司
Abstract: 本申请公开了故障检测方法,包括:主管理节点的网卡获取业务节点的网卡发送的授权消息,所述授权消息包括所述业务节点的授权有效时长,所述主管理节点的网卡和所述业务节点的网卡支持远程直接存储器存取RDMA协议;当所述授权有效时长小于或等于第一阈值时,所述主管理节点的网卡向所述主管理节点的处理器发送第一通知消息,用于指示所述业务节点的有效授权即将超期,以便于所述主管理节点的处理器根据所述第一通知消息确定所述业务节点的状态,所述状态包括正常和故障。以此解决传统的故障检测方案中需要CPU参与,导致CPU工作负载较大、故障检测的时延较长等问题。
-
公开(公告)号:CN112529206A
公开(公告)日:2021-03-19
申请号:CN201911208567.7
申请日:2019-11-30
Applicant: 华为技术有限公司
Abstract: 本申请实施例公开了一种模型运行方法和系统,同时满足用户对模型的易用性和运行效率的双重需求。本申请实施例提供一种模型运行方法,方法包括:获取第一代码,第一代码用于描述一机器学习模型;当处理第一代码的模式为动态图模式时,根据第一代码包括的至少一个运算符生成至少一个运算符对应的算子的计算图,以及根据算子的计算图执行模型的前向计算;当模型的前向计算执行完成之后,将处理第一代码的模式从动态图模式切换至静态图模式;当处理第一代码的模式为静态图模式时,根据第一代码生成模型的计算图;以及根据模型的计算图执行模型的前向计算,或根据模型的计算图执行模型的前向计算和反向计算。
-
公开(公告)号:CN109388490B
公开(公告)日:2020-11-17
申请号:CN201710669106.4
申请日:2017-08-07
Applicant: 华为技术有限公司
IPC: G06F9/50
Abstract: 本申请实施例公开了一种内存分配方法和服务器,用于在内存分配的时候,减少NC延迟带来的性能损失,提高服务器性能。本申请实施例方法包括:服务器识别节点拓扑表,该节点拓扑表中不仅存在NUMA节点之间的连接关系,而且存在NUMA节点与NC之间,NC与NC之间的连接关系,服务器根据该节点拓扑表,生成各NUMA节点的访存跳转表,该跳转表中不仅有连接至其他各NUMA节点的最短路径中的QPI跳数,而且有NC跳数,服务器再根据各NUMA节点的访存跳转表,计算各NUMA节点的访存优先级,将NC跳数作为访存优先级计算的一个重要参数,NC跳数越少,访存优先级越高,当有NUMA节点申请内存时,根据该访存优先级表进行内存分配,优先级越高,越优先从该优先级对应的NUMA节点中分配内存。
-
公开(公告)号:CN110830283A
公开(公告)日:2020-02-21
申请号:CN201810919141.1
申请日:2018-08-10
Applicant: 华为技术有限公司
Abstract: 本申请公开了故障检测方法,包括:主管理节点的网卡获取业务节点的网卡发送的授权消息,所述授权消息包括所述业务节点的授权有效时长,所述主管理节点的网卡和所述业务节点的网卡支持远程直接存储器存取RDMA协议;当所述授权有效时长小于或等于第一阈值时,所述主管理节点的网卡向所述主管理节点的处理器发送第一通知消息,用于指示所述业务节点的有效授权即将超期,以便于所述主管理节点的处理器根据所述第一通知消息确定所述业务节点的状态,所述状态包括正常和故障。以此解决传统的故障检测方案中需要CPU参与,导致CPU工作负载较大、故障检测的时延较长等问题。
-
公开(公告)号:CN112528108A
公开(公告)日:2021-03-19
申请号:CN201910880461.5
申请日:2019-09-17
Applicant: 华为技术有限公司
IPC: G06F16/906 , G06N3/08
Abstract: 本申请公开了一种模型训练系统以及模型训练中梯度聚合的方法,应用于人工智能artificial intelligence,AI)技术领域。该模型训练系统中的至少两个训练节点形成环状传输路径。在梯度聚合中,环上的各训练节点在梯度聚合前只需要确定自身的第一算子的第一梯度输出,就可以执行梯度聚合。不需要向中心节点发送该第一梯度,由该中心节点统一执行聚合。也不需要在聚合前向环状传输路径上作为中心节点的一个训练节点报告第一梯度已就绪,在接收到该中心节点返回的聚合指令后才能开始执行梯度聚合。可以有效的减少各训练节点与中心节点之间交互产生的通信开销。
-
公开(公告)号:CN111738435A
公开(公告)日:2020-10-02
申请号:CN202010574063.3
申请日:2020-06-22
Abstract: 本发明涉及一种基于移动设备的在线稀疏训练方法及系统。该方法包括:在云端对神经网络模型进行结构化剪枝,得到稀疏神经网络模型;对所述稀疏神经网络模型进行编码,得到编码后的神经网络模型;所述编码后的神经网络模型包括数据部分和控制部分,所述数据部分为所述稀疏神经网络模型中非零滤波器,所述控制部分用于记录所述稀疏神经网络模型的稀疏数据;在端侧移动设备上对所述编码后的神经网络模型进行稀疏训练。本发明可以提高移动设备数据处理的精度,提高移动设备端的性能。
-
公开(公告)号:CN110727632A
公开(公告)日:2020-01-24
申请号:CN201810779536.6
申请日:2018-07-16
Applicant: 华为技术有限公司
IPC: G06F15/173 , G06F13/28
Abstract: 本申请实施例提供一种数据处理方法和装置,涉及通信技术领域,用以减少内存持久化守护进程被调度执行的次数。该方案包括:数据处理装置接收第一数据操作请求,所述第一数据操作请求包括数据以及所述数据对应的第一地址,所述第一地址为所述数据在所述数据处理装置中的存储地址;所述数据处理装置根据所述第一数据操作请求,在日志列表中记录所述第一数据操作请求对应的日志;其中,所述第一数据操作请求对应的日志包括所述数据、所述第一地址以及所述第一数据操作请求的操作类型;所述日志列表存储在所述非易失性快速存储介质中;所述数据处理装置存储所述数据。该方案适用于存储系统中。
-
公开(公告)号:CN112529206B
公开(公告)日:2024-05-17
申请号:CN201911208567.7
申请日:2019-11-30
Applicant: 华为技术有限公司
Abstract: 本申请实施例公开了一种模型运行方法和系统,同时满足用户对模型的易用性和运行效率的双重需求。本申请实施例提供一种模型运行方法,方法包括:获取第一代码,第一代码用于描述一机器学习模型;当处理第一代码的模式为动态图模式时,根据第一代码包括的至少一个运算符生成至少一个运算符对应的算子的计算图,以及根据算子的计算图执行模型的前向计算;当模型的前向计算执行完成之后,将处理第一代码的模式从动态图模式切换至静态图模式;当处理第一代码的模式为静态图模式时,根据第一代码生成模型的计算图;以及根据模型的计算图执行模型的前向计算,或根据模型的计算图执行模型的前向计算和反向计算。
-
公开(公告)号:CN111738435B
公开(公告)日:2024-03-29
申请号:CN202010574063.3
申请日:2020-06-22
IPC: G06N3/082 , G06N3/084 , G06N3/0464 , G06N3/0495
Abstract: 本发明涉及一种基于移动设备的在线稀疏训练方法及系统。该方法包括:在云端对神经网络模型进行结构化剪枝,得到稀疏神经网络模型;对所述稀疏神经网络模型进行编码,得到编码后的神经网络模型;所述编码后的神经网络模型包括数据部分和控制部分,所述数据部分为所述稀疏神经网络模型中非零滤波器,所述控制部分用于记录所述稀疏神经网络模型的稀疏数据;在端侧移动设备上对所述编码后的神经网络模型进行稀疏训练。本发明可以提高移动设备数据处理的精度,提高移动设备端的性能。
-
公开(公告)号:CN110688237B
公开(公告)日:2024-02-09
申请号:CN201910786539.7
申请日:2019-08-23
Applicant: 华为技术有限公司
Abstract: 本申请提供一种转发报文的方法、中间设备和计算机设备。本申请提供的计算机设备包括CPU、网络适配器、总线和中间设备,所述中间设备通过所述总线分别与所述CPU和所述网络适配器连接,用于建立代理单元的地址信息与功能单元的地址信息之间的对应关系,并根据所述对应关系,实现所述CPU与所述网络适配器之间报文的转发。所述CPU可以不再通过其它CPU实现报文的转发,省去了转发到其它CPU时的软件转换等操作,降低了发送数据报文或命令报文时的时延。同时,也能够避免因CPU间通信总线带宽不足导致的时延过大的问题。
-
-
-
-
-
-
-
-
-