一种用于深度学习任务的GPU资源分配方法

    公开(公告)号:CN114896070A

    公开(公告)日:2022-08-12

    申请号:CN202210617292.8

    申请日:2022-06-01

    Abstract: 本发明提供了一种用于深度学习任务的GPU资源分配方法,包括:获取深度学习任务对应的网络结构特征、执行特征及可用资源集;基于利用率预测模型根据网络结构特征、执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集;基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从所有工作节点中选择一个工作节点为深度学习任务分配资源,并将深度学习任务及其资源需求发送给所选择的工作节点。本发明的技术方案通过对深度学习任务的资源需求量进行预测,根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享以及提升容器云集群中的GPU利用率。

    一种基于数据流架构的深度可分离卷积融合方法及系统

    公开(公告)号:CN113313251A

    公开(公告)日:2021-08-27

    申请号:CN202110522385.8

    申请日:2021-05-13

    Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。

    一种数据流处理器指令映射方法及系统、装置

    公开(公告)号:CN110941451A

    公开(公告)日:2020-03-31

    申请号:CN201911011823.3

    申请日:2019-10-23

    Abstract: 本发明涉及一种数据流处理器指令映射方法,包括:根据数据流图,对初始指令序列进行广度优先遍历的排序,得到按照深度优先排序的最终指令序列;将该最终指令序列划分为多个指令子序列,对所有该指令子序列依次进行指令映射,生成多个子映射布局;合并所有该子映射布局为用于数据流处理器执行该初始指令序列的最终映射布局。本发明的指令映射方法处理平衡网络拥塞度、网络负载、PE间流水、负载均衡等各种因素之外,还通过划分指令子空间的方式,分组并行进行映射布局的探索,从中选择最优的结果作为最终的映射布局,这种方式保证了映射质量的同时增加了算法的并行性,提高同等映射质量下的算法运行速度。

Patent Agency Ranking