用于加速BERT神经网络运算的深度学习加速器

    公开(公告)号:CN111062471B

    公开(公告)日:2023-05-02

    申请号:CN201911160365.X

    申请日:2019-11-23

    Applicant: 复旦大学

    Abstract: 本发明属于集成电路技术领域,具体为一种用于加速BERT神经网络运算的深度学习加速器。本发明加速器包括:三个矩阵乘阵列,用于计算乘累加操作;一个Softmax与点积计算单元,用于计算Softmax概率函数,并对分支网络输出进行点乘得到输出特征值;三个特征存储器,用于存储输入、输出特征值;两个权重存储器;一个控制器和片上片外接口,用于控制片外DRAM中的数据与片上数据进行交互。本发明针对神经网络中的分支网络结构进行优化,有效减少中间数据的存储空间,降低片外片上数据交互次数,降低功耗;同时通过配置存储单元与计算单元间可重构的数据互联,满足BERT神经网络中的分支网络结构计算要求,可用于端到端的神经网络计算。

    用于混合压缩循环神经网络的稀疏矩阵乘法加速器

    公开(公告)号:CN111008698B

    公开(公告)日:2023-05-02

    申请号:CN201911160416.9

    申请日:2019-11-23

    Applicant: 复旦大学

    Abstract: 本发明属于集成电路技术领域,具体为一种用于混合压缩循环神经网络的稀疏矩阵乘法加速器。本加速器包括:2组乘累加单元,用于计算网络中2个不同输出通道的特征值;4个输入存储器,2个列组合权重存储器,1个变长编码权重存储器和1个变长编码索引存储器,存储非规则变长编码压缩的权重与索引;2个二级累加器,用于读取输出存储器中的中间结果与乘累加单元的计算结果累加,更新输出结果;1个解码器,用于将变长压缩的权重解码传输到对应的乘累加单元中。本发明利用网络中权重的稀疏性,对稀疏权重矩阵进行压缩,在保证原循环网络精度同时减少了权重存储空间,加快了计算速度,降低了计算功耗。

    一种适用于二值卷积神经网络计算的存内计算装置

    公开(公告)号:CN111126579A

    公开(公告)日:2020-05-08

    申请号:CN201911067669.1

    申请日:2019-11-05

    Applicant: 复旦大学

    Abstract: 本发明属于集成电路技术领域,具体为一种适用于二值卷积神经网络计算的存内计算装置。本装置包括:基于静态随机存储器的存内计算阵列,用于实现向量间异或运算;一个多输入加法树,用于对不同输入通道内的异或结果进行累加;一个暂存中间结果的存储单元;一个更新中间结果的累加器组;一个后处理量化单元,用于将高精度的累加结果量化为1位输出特征值;一个控制单元,用于控制计算流程和数据流向。本发明发明能在存储输入数据同时完成二值神经网络中的异或运算,避免了存储单元与计算单元之间频繁的数据交换,从而提高了计算速度,减少了芯片功耗。

Patent Agency Ranking