基于数据流架构的稀疏神经网络的运算方法

    公开(公告)号:CN113313247B

    公开(公告)日:2023-04-07

    申请号:CN202110161624.1

    申请日:2021-02-05

    Abstract: 本发明提供了一种基于数据流架构的稀疏神经网络的运算方法,包括:依据数据流处理器的结构将稀疏神经网络的运算任务从低到高依次划分为子任务、任务和应用三个运算层级;确定所述运算层级中每个所述任务包含的所述子任务的个数、每个所述应用包含的所述任务的个数以及所述应用的个数,其中所述稀疏神经网络的输入图像数据和权重数据至少之一是稀疏矩阵;依据所述运算层级以及各个运算层级的个数,将所述稀疏神经网络的输入图像数据或权重数据划分为若干数据块;以及基于所述运算层级以及每个运算层级对应的数据块完成所述稀疏神经网络的运算任务。

    基于数据流架构的稀疏神经网络的运算方法

    公开(公告)号:CN113313247A

    公开(公告)日:2021-08-27

    申请号:CN202110161624.1

    申请日:2021-02-05

    Abstract: 本发明提供了一种基于数据流架构的稀疏神经网络的运算方法,包括:依据数据流处理器的结构将稀疏神经网络的运算任务从低到高依次划分为子任务、任务和应用三个运算层级;确定所述运算层级中每个所述任务包含的所述子任务的个数、每个所述应用包含的所述任务的个数以及所述应用的个数,其中所述稀疏神经网络的输入图像数据和权重数据至少之一是稀疏矩阵;依据所述运算层级以及各个运算层级的个数,将所述稀疏神经网络的输入图像数据或权重数据划分为若干数据块;以及基于所述运算层级以及每个运算层级对应的数据块完成所述稀疏神经网络的运算任务。

    一种基于数据流架构的深度可分离卷积融合方法及系统

    公开(公告)号:CN113313251B

    公开(公告)日:2023-05-23

    申请号:CN202110522385.8

    申请日:2021-05-13

    Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。

    基于数据流架构的Cholesky分解加速计算方法及其系统

    公开(公告)号:CN115391731A

    公开(公告)日:2022-11-25

    申请号:CN202210921474.4

    申请日:2022-08-02

    Abstract: 本申请公开了一种基于数据流架构的Cholesky分解加速计算方法,所述方法包括:数据准备步骤、矩阵2×2分块计算步骤及矩阵1×1分块计算步骤;将数据流架构中处理单元PE阵列分为多个PE组,将不规则的待计算矩阵按照预定划分规则划分为规则的多个矩阵块,判断规模为N×N的待计算矩阵的N大于预定阈值,则采用基于2×2分块的cholesky拆分算法,循环迭代计算各个PE组中的矩阵块,且通过不同PE组对cholesky分解计算的数据依赖关系,实现PE组间数据传递,待计算矩阵的规模动态调整缩小;判断规模为N×N的所述待计算矩阵的N小于等于预定阈值,采用基于1×1分块的cholesky拆分算法,循环迭代计算,直至计算完成输出计算结果,完成基于数据流架构的Cholesky分解的加速计算。

    一种基于数据流架构的深度可分离卷积融合方法及系统

    公开(公告)号:CN113313251A

    公开(公告)日:2021-08-27

    申请号:CN202110522385.8

    申请日:2021-05-13

    Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。

Patent Agency Ranking