-
公开(公告)号:CN112199196B
公开(公告)日:2022-03-18
申请号:CN202011134276.0
申请日:2020-10-21
Applicant: 上海交通大学
Abstract: 本发明提供一种资源配置方法、介质及服务端。所述资源配置方法包括:获取所述服务端能够执行的任务作为第一任务;获取所述第一任务对应的数据处理模型作为第一数据处理模型,其中,各所述第一数据处理模型至少包含1个算子;对所述第一数据处理模型中的每个算子进行资源配置,以获取所述第一数据处理模型中各算子所使用的资源数量;当所述服务端接收到用户的任务请求时,获取第二任务;其中,所述第二任务包括所述服务端的当前任务和所述用户的任务请求对应的任务;当所述第二任务的数量大于1时,执行一协同资源配置子方法。本发明所述资源配置方法能够适用于多数据处理模型的复杂场景。
-
公开(公告)号:CN112529175B
公开(公告)日:2022-03-18
申请号:CN202011224090.4
申请日:2020-11-05
Applicant: 上海交通大学
Abstract: 本发明提供一种神经网络的编译方法、系统、计算机存储介质及编译设备,所述神经网络的编译方法包括:将网络文件翻译为中间表达文件;从性能分析、单节点以及多节点协同角度对所述中间表达文件进行优化;将优化后的中间表达文件生成基于硬件接口的网络模版文件;将所述网络模版文件编译为可执行推理应用。本发明旨在设计并实现一个能够自动根据软硬件信息调节参数、生成代码的编译工具链框架、中间表示以及相应优化算法,使之在目标芯片上计算时,在不改变网络输出结果的同时,在较短的优化时间内获得更高的计算速率、更小的计算时延。且方便用户自行调试、调参。
-
公开(公告)号:CN115879529A
公开(公告)日:2023-03-31
申请号:CN202211666647.9
申请日:2022-12-23
Abstract: 本发明提供一种基于网络级模拟的自动并行策略搜索方法、介质及设备,所述方法包括:获取神经网络计算图,并基于所述神经网络计算图对初始网络模型进行拆分,获取多个节点子网络模型,形成小集群网络模型;获取各所述节点子网络模型的时间开销;基于各所述节点子网络模型的时间开销模拟大集群网络模型的时间开销;基于模拟的大集群网络模型的时间开销进行并行策略搜索,输出最优并行策略。本发明不仅支持模型并行与流水线并行场景下的模拟,可以覆盖到现有的全部并行训练场景,同时整网拆分的性能评测方案,提升了模拟的准确率与速度。
-
公开(公告)号:CN112529175A
公开(公告)日:2021-03-19
申请号:CN202011224090.4
申请日:2020-11-05
Applicant: 上海交通大学
Abstract: 本发明提供一种神经网络的编译方法、系统、计算机存储介质及编译设备,所述神经网络的编译方法包括:将网络文件翻译为中间表达文件;从性能分析、单节点以及多节点协同角度对所述中间表达文件进行优化;将优化后的中间表达文件生成基于硬件接口的网络模版文件;将所述网络模版文件编译为可执行推理应用。本发明旨在设计并实现一个能够自动根据软硬件信息调节参数、生成代码的编译工具链框架、中间表示以及相应优化算法,使之在目标芯片上计算时,在不改变网络输出结果的同时,在较短的优化时间内获得更高的计算速率、更小的计算时延。且方便用户自行调试、调参。
-
公开(公告)号:CN112199196A
公开(公告)日:2021-01-08
申请号:CN202011134276.0
申请日:2020-10-21
Applicant: 上海交通大学
Abstract: 本发明提供一种资源配置方法、介质及服务端。所述资源配置方法包括:获取所述服务端能够执行的任务作为第一任务;获取所述第一任务对应的数据处理模型作为第一数据处理模型,其中,各所述第一数据处理模型至少包含1个算子;对所述第一数据处理模型中的每个算子进行资源配置,以获取所述第一数据处理模型中各算子所使用的资源数量;当所述服务端接收到用户的任务请求时,获取第二任务;其中,所述第二任务包括所述服务端的当前任务和所述用户的任务请求对应的任务;当所述第二任务的数量大于1时,执行一协同资源配置子方法。本发明所述资源配置方法能够适用于多数据处理模型的复杂场景。
-
-
-
-