一种进程热迁移方法、装置、电子设备及存储介质

    公开(公告)号:CN118245189A

    公开(公告)日:2024-06-25

    申请号:CN202410412752.2

    申请日:2024-04-07

    Abstract: 本发明公开了一种进程热迁移方法、装置、电子设备以及存储介质,进程迁移方法包括以下步骤:进程转储步骤:冻结正在进行的进程,获取所述进程的数据为第一数据,将所述第一数据以一组织形式进行准备,流水线压缩所述准备的第一数据后写入镜像文件;进程恢复步骤:获取所述镜像文件中的数据为第二数据,流水线解压缩所述第二数据后恢复至相应位置。本发明的方法通过流水线将压缩的开销隐藏到原有的数据准备、数据处理的过程中,解决了数据压缩占用资源大的问题。

    一种用于深度学习的芯粒互联系统

    公开(公告)号:CN117151183A

    公开(公告)日:2023-12-01

    申请号:CN202311122958.3

    申请日:2023-09-01

    Abstract: 本发明提供了一种用于深度学习的芯粒互联系统,所述芯粒中每个芯粒设有电光通信端口,所述芯粒分为CPU芯粒和GPU芯粒,所述系统包括:至少一个CPU芯粒,其用于管控深度学习任务相关数据的收发与任务执行流程,并且所述CPU芯粒设有电光通信端口;多个GPU芯粒,其用于根据深度学习任务相关数据执行深度学习任务,并且所述GPU芯粒设有电光通信端口;多个阵列波导光栅路由器,其用于对以光波承载的深度学习任务相关的数据,其中,所述阵列波导光栅路由器与所述芯粒通过3D堆叠技术封装在不同的芯片层;多个硅光收发器,其每个硅光收发器用于一个芯粒的电光通信端口与对应阵列波导光栅路由器之间的连接与电光信号转换。

    深度学习作业优先级调度方法及深度学习作业系统

    公开(公告)号:CN113568725A

    公开(公告)日:2021-10-29

    申请号:CN202110794626.4

    申请日:2021-07-14

    Abstract: 本发明提出一种深度学习作业优先级调度方法,包括:于任一作业调度周期内,获取GPU集群中所有可用GPU的预测工作参数,以及该GPU集群的等待队列中所有作业的预测作业参数;以该预测工作参数和该预测作业参数预估每个作业的剩余执行时间;以任一作业的剩余执行时间与该作业的预估资源数量的乘积,作为该作业的作业面积;选取所有作业中具有作业面积最小值的作业,设置具有当前作业周期内的最高优先级。本发明还提出一种深度学习作业系统,以及一种数据处理装置。

    一种基于作业部署信息的链路互连方法和系统

    公开(公告)号:CN109067662A

    公开(公告)日:2018-12-21

    申请号:CN201810700993.1

    申请日:2018-06-29

    Abstract: 本发明涉及一种基于作业部署信息的链路互连方法和系统,包括:获取待运行的作业,为当前作业的分配多个计算节点,获取与计算节点相连的交换节点间的通信概率总和,以及交换节点间的路由路径经过除当前作业以外的其余作业的路由路径数量,根据通信概率总和、路由路径数量,得到多个交换节点间的加权距离;根据多个计算节点的计算资源是否连续,将交换节点间最大加权距离对应的交换节点进行互连。由此本发明解决由于作业部署问题所带来的远距离热点通信问题,对影响网络性能的通信热点准确进行识别,避免对作业与作业间无关交换节点的计算,能更快速地得到互连结果。

    代码生成器的自动调优方法、装置、存储介质、程序产品

    公开(公告)号:CN119783775A

    公开(公告)日:2025-04-08

    申请号:CN202411818719.6

    申请日:2024-12-11

    Abstract: 本发明提出一种代码生成器的自动调优方法、装置、存储介质、程序产品,该方法包含:依据给定的大模型推理芯片的特性定义搜索空间,将给定的搜索算法集成到所述大模型推理芯片的软件开发环境中,并利用给定的搜索算法,经过多轮循环,生成参数列表种群,所述参数列表种群包含若干参数列表;根据所述参数列表种群配置具体模板参数,生成核函数的定义部分、流水缓冲级以及结果寄存器转存到全局内存的过程;通过编译器编译生成的核函数,并在所述大模型推理芯片上执行,对生成的所述核函数进行性能测量,获取核函数性能指标,并将所述参数列表种群和对应的核函数性能指标作为键值对加入到所述性能字典中。

    面向多核并行体系结构的卷积算子编译优化方法及装置

    公开(公告)号:CN119759357A

    公开(公告)日:2025-04-04

    申请号:CN202411825773.3

    申请日:2024-12-12

    Abstract: 本发明提出一种面向多核并行体系结构的卷积算子编译优化方法和装置。包括:输入转换器模块提取和去重模型中的或者用户输入的卷积参数,并生成卷积描述符组;控制器模块根据历史记录决定是否对输入模块启动调优,将需要调优的卷积描述符传递给调优器模块;调优器模块负责根据配置好的参数空间进行算子的自动调优,输出最佳参数配置;代码生成模块根据接收到的调优参数组合及卷积描述符生成HIP代码,并分别对各个参数生成的核函数进行对应编号。核函数执行模块编译和执行已生成的代码,并通过测试框架对各个核函数的性能进行测试,按编号返回对应的适应度信息并汇总为列表返回给调优器模块。

    深度学习作业优先级调度方法及深度学习作业系统

    公开(公告)号:CN113568725B

    公开(公告)日:2024-11-22

    申请号:CN202110794626.4

    申请日:2021-07-14

    Abstract: 本发明提出一种深度学习作业优先级调度方法,包括:于任一作业调度周期内,获取GPU集群中所有可用GPU的预测工作参数,以及该GPU集群的等待队列中所有作业的预测作业参数;以该预测工作参数和该预测作业参数预估每个作业的剩余执行时间;以任一作业的剩余执行时间与该作业的预估资源数量的乘积,作为该作业的作业面积;选取所有作业中具有作业面积最小值的作业,设置具有当前作业周期内的最高优先级。本发明还提出一种深度学习作业系统,以及一种数据处理装置。

    面向深度学习推理任务编译器的算子融合方法和系统

    公开(公告)号:CN116861359A

    公开(公告)日:2023-10-10

    申请号:CN202310643920.4

    申请日:2023-06-01

    Abstract: 本发明提出一种面向深度学习推理任务编译器的算子融合方法,包括:将深度学习推理任务模型的标准模型,转化为初始图级IR;遍历该初始图级IR,将该初始图级IR中的可融合算子标识为同类算子或异类算子;将该初始图级IR转化为张量表达式,融合该张量表达式中的同类算子;将该张量表达式编译为内核源码,融合该内核源码中的异类算子;将该内核源码编译为可执行代码并部署运行。本发明还提出一种面向深度学习推理任务编译器的算子融合系统,以及一种用于深度学习推理任务编译器算子融合的数据处理装置。

    具有业务快速恢复功能的容器组更新方法及系统

    公开(公告)号:CN111290767B

    公开(公告)日:2021-06-08

    申请号:CN202010063953.8

    申请日:2020-01-20

    Abstract: 本发明提出一种具有业务快速恢复功能的容器组更新方法及系统,包括:根据对容器组的更新请求,暂停该容器组的服务,通过比较更新请求和容器组当前状态,确定该容器组中待更新容器,并将该容器组中除该待更新容器以外的容器全都暂停,并将除该待更新容器以外的容器的进程持久化到磁盘;保存该待更新容器的运行状态,根据该更新请求中需要更新的容器镜像文件构建新的容器镜像,销毁该待更新容器后根据该运行状态重新运行新的容器镜像,得到更新容器,恢复运行该容器组以完成对该容器组的更新。

Patent Agency Ranking