-
公开(公告)号:CN119918621A
公开(公告)日:2025-05-02
申请号:CN202510404733.X
申请日:2025-04-02
Applicant: 之江实验室
Abstract: 本说明书公开了一种与机器学习框架解耦的容错训练方法及装置。在本说明书提供的机器学习框架解耦的容错训练方法中,可以在定位到发生异常的异常从节点后,将异常从节点从训练网络出剔除,并选择合适的备援从节点补充异常从节点的空缺,快速构建新的重构训练网络,重新执行未完成的训练,自动快速地重启训练任务,减少不必要的用户工作量;同时,本方法在执行过程中与机器学习训练框架解耦,能够以最小的代码侵入成本实现,大幅降低了学习与应用时需要的成本。
-
公开(公告)号:CN112287609B
公开(公告)日:2021-03-30
申请号:CN202011576823.0
申请日:2020-12-28
Applicant: 之江实验室
IPC: G06F30/27 , G06N5/04 , G06F111/02
Abstract: 本发明公开了一种面向机器人任务划分的端、边、云协同计算装置,属于机器人技术领域。该装置包括任务建模计算层、任务离线切分层和任务在线执行层;任务建模计算层对不同的机器人任务在不同的设备下分层执行的计算时延以及传输时延进行计算;任务离线切分层根据计算时延和传输时延对目标网络模型进行水平和垂直切分,生成最佳的任务执行策略;任务在线执行层则根据任务离线切分层输出的任务执行策略进行任务的分配、下发和调度,完成任务的在线运行。本发明的协同计算装置可以保护机器人终端的数据隐私,有效地提升了机器人给定任务的执行效率,同时显著地提高了任务划分的性能,具有较好的实用性。
-
公开(公告)号:CN115935563A
公开(公告)日:2023-04-07
申请号:CN202211495900.9
申请日:2022-11-24
Applicant: 之江实验室
IPC: G06F30/18 , G06F30/27 , G06F119/02
Abstract: 本发明公开了一种基于图神经网络的网络带宽预测方法及装置,首先进行数据采集,采集不同网络拓扑结构下的数据,包括每个网络节点上的队列数量、每个队列的长度和每个数据包的输出大小以及执行调度策略与权重信息,节点之间的链路连接关系与链路的最大带宽容量,链路上的丢包率等网络性能相关信息;第二步构建特征工程,根据网络拓扑节点的信息构建网络节点的特征向量,根据节点之间每条链路的信息构建链路的特征向量;第三步进行网络系统抽象化表征,将网络抽象成由节点和边表示的图,节点的权重由节点的特征向量赋值,边由节点之间链路的特征向量赋值;第四步对网络中的节点特征、链路特征采用图神经网络算法进行建模,训练得到新的节点特征和链路特征信息;最后根据更新后的节点特征以及链路特征信息,采用机器学习算法对链路之间的带宽进行预测。
-
公开(公告)号:CN112297014B
公开(公告)日:2021-04-27
申请号:CN202011633386.1
申请日:2020-12-31
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本发明提供了面向机器人的云边端架构下的深度学习模型分割方法,属于深度学习以及分布式计算领域。该方法首先将深度学习模型建模为一个有向无环图,有向无环图的节点代表深度学习模型层,节点之间的边代表深度学习模型层间的数据传输。其次,根据模型层分别在云边端上的处理时间为节点赋值,根据模型层间数据分别在云边、边端、云端之间的传输时间为节点之间的边赋值。进而,采用一个有向无环图最长距离算法对图中的节点进行分层,并逐层处理节点。对于一层中的每个节点,根据节点的输入边权重和节点权重,采用启发式策略,进行动态分割,并将分割后的深度学习模型分配给云边端计算设备,从而实现无精度损失的云边端分布式协同推理。
-
公开(公告)号:CN112363844A
公开(公告)日:2021-02-12
申请号:CN202110037236.2
申请日:2021-01-12
Applicant: 之江实验室
Abstract: 本发明公开了一种面向图像处理的卷积神经网络垂直分割方法,属于深度学习以及分布式计算领域。该方法首先将连续卷积层最后一层的输入特征图分割为连续的子特征图,再根据子特征图,并依据卷积计算操作,反向逐层计算上一层对应的子特征图,直至第一层,参考第一层的子特征图,对第一层的输入特征图进行分割,将第一层分割后的子特征图分配给多个计算节点。最后,依据单链路连续卷积层的参数和超参数,实施无精度损失的分布式协同推理,并在所有推理结果生成后进行推理结果的汇总,生成最终的输出特征图。相比于过往方法,本发明的方法具有大幅度降低卷积神经网络推理时延并且没有精度损失的特点。
-
公开(公告)号:CN112297014A
公开(公告)日:2021-02-02
申请号:CN202011633386.1
申请日:2020-12-31
Applicant: 之江实验室
IPC: B25J9/16
Abstract: 本发明提供了面向机器人的云边端架构下的深度学习模型分割方法,属于深度学习以及分布式计算领域。该方法首先将深度学习模型建模为一个有向无环图,有向无环图的节点代表深度学习模型层,节点之间的边代表深度学习模型层间的数据传输。其次,根据模型层分别在云边端上的处理时间为节点赋值,根据模型层间数据分别在云边、边端、云端之间的传输时间为节点之间的边赋值。进而,采用一个有向无环图最长距离算法对图中的节点进行分层,并逐层处理节点。对于一层中的每个节点,根据节点的输入边权重和节点权重,采用启发式策略,进行动态分割,并将分割后的深度学习模型分配给云边端计算设备,从而实现无精度损失的云边端分布式协同推理。
-
公开(公告)号:CN118095987A
公开(公告)日:2024-05-28
申请号:CN202410329386.4
申请日:2024-03-21
Applicant: 之江实验室
IPC: G06Q10/083 , G06Q10/0631
Abstract: 本说明书公开了一种机器人集群调度方法、装置、存储介质及电子设备。在本说明书提供的机器人集群调度方法中,获取运输点的位置、货物的运输需求以及机器人集群中各机器人的运输能力信息;在满足每个运输点最多被每个机器人访问一次的约束条件下,根据运输需求以及运输能力信息将货物分配给机器人,得到指定数量个调度方案,其中,调度方案用于表征机器人在运输过程中需要执行的运输任务,运输任务的信息包括起始运输点、结束运输点、货物运输量;针对每个调度方案,确定该调度方案中所有机器人在执行运输任务时消耗的运输成本;根据运输成本在各调度方案中确定目标调度方案,并采用目标调度方案完成运输任务。
-
公开(公告)号:CN116436980A
公开(公告)日:2023-07-14
申请号:CN202211642751.4
申请日:2022-12-20
Applicant: 之江实验室
IPC: H04L67/63 , G06N3/04 , G06N5/04 , H04L67/1023 , H04L67/12
Abstract: 一种实时视频任务端网边协同调度方法,首先采集端侧/边缘侧平台框架信息、端侧设备能耗信息、各类深度神经网络模型的算子信息以及算子间的数据传输信息;其次,根据信息采集结果,构造算子间的拓扑网络关系和边的权重,依此建立深度神经网络模型的有向无环图;再者,基于数据采集和有向无环图构建的结果,对实时视频任务端网边协同的决策变量、目标函数和约束进行定义和数学化表达,进而构建端网边协同调度模型;最后,将数学化表示的决策变量、目标函数和约束在求解器环境中进行编译和求解,获得最优调度结果,并在实际物理环境中进行部署。
-
公开(公告)号:CN112363844B
公开(公告)日:2021-04-09
申请号:CN202110037236.2
申请日:2021-01-12
Applicant: 之江实验室
Abstract: 本发明公开了一种面向图像处理的卷积神经网络垂直分割方法,属于深度学习以及分布式计算领域。该方法首先将连续卷积层最后一层的输入特征图分割为连续的子特征图,再根据子特征图,并依据卷积计算操作,反向逐层计算上一层对应的子特征图,直至第一层,参考第一层的子特征图,对第一层的输入特征图进行分割,将第一层分割后的子特征图分配给多个计算节点。最后,依据单链路连续卷积层的参数和超参数,实施无精度损失的分布式协同推理,并在所有推理结果生成后进行推理结果的汇总,生成最终的输出特征图。相比于过往方法,本发明的方法具有大幅度降低卷积神经网络推理时延并且没有精度损失的特点。
-
公开(公告)号:CN112287609A
公开(公告)日:2021-01-29
申请号:CN202011576823.0
申请日:2020-12-28
Applicant: 之江实验室
IPC: G06F30/27 , G06N5/04 , G06F111/02
Abstract: 本发明公开了一种面向机器人任务划分的端、边、云协同计算装置,属于机器人技术领域。该装置包括任务建模计算层、任务离线切分层和任务在线执行层;任务建模计算层对不同的机器人任务在不同的设备下分层执行的计算时延以及传输时延进行计算;任务离线切分层根据计算时延和传输时延对目标网络模型进行水平和垂直切分,生成最佳的任务执行策略;任务在线执行层则根据任务离线切分层输出的任务执行策略进行任务的分配、下发和调度,完成任务的在线运行。本发明的协同计算装置可以保护机器人终端的数据隐私,有效地提升了机器人给定任务的执行效率,同时显著地提高了任务划分的性能,具有较好的实用性。
-
-
-
-
-
-
-
-
-