-
公开(公告)号:CN113435586B
公开(公告)日:2021-11-30
申请号:CN202110883251.9
申请日:2021-08-03
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开一种用于卷积神经网络的卷积运算装置,包括使能矩阵获取模块、使能矩阵控制器、待卷积矩阵控制器、卷积核矩阵控制器和卷积运算模块。使能矩阵获取模块分别将待卷积矩阵X与卷积核矩阵W的非零元素值都设置为第一预设值,以获取待卷积使能矩阵X′和卷积核使能矩阵W′。使能矩阵控制器、待卷积矩阵控制器和卷积核矩阵控制器依次将待卷积矩阵X与卷积核矩阵W的元素发送给卷积运算模块。卷积运算模块只有当待卷积使能矩阵X′和卷积核使能矩阵W′的元素的值都为第一预设值时,才对待卷积矩阵X和卷积核矩阵W中对应的元素进行乘法运算。由于在卷积运算过程中只对非零的元素进行乘法运算,减少了硬件负荷,并和提高了卷积运算速度。
-
公开(公告)号:CN113435586A
公开(公告)日:2021-09-24
申请号:CN202110883251.9
申请日:2021-08-03
Applicant: 北京大学深圳研究生院
Abstract: 本申请公开一种用于卷积神经网络的卷积运算装置,包括使能矩阵获取模块、使能矩阵控制器、待卷积矩阵控制器、卷积核矩阵控制器和卷积运算模块。使能矩阵获取模块分别将待卷积矩阵X与卷积核矩阵W的非零元素值都设置为第一预设值,以获取待卷积使能矩阵X′和卷积核使能矩阵W′。使能矩阵控制器、待卷积矩阵控制器和卷积核矩阵控制器依次将待卷积矩阵X与卷积核矩阵W的元素发送给卷积运算模块。卷积运算模块只有当待卷积使能矩阵X′和卷积核使能矩阵W′的元素的值都为第一预设值时,才对待卷积矩阵X和卷积核矩阵W中对应的元素进行乘法运算。由于在卷积运算过程中只对非零的元素进行乘法运算,减少了硬件负荷,并和提高了卷积运算速度。
-
公开(公告)号:CN113408710B
公开(公告)日:2024-12-03
申请号:CN202110789039.6
申请日:2021-07-13
Applicant: 北京大学深圳研究生院
IPC: G06N3/0464 , G06N3/063 , G06V10/82 , G06V10/40
Abstract: 本发明提供了一种深度卷积神经网络加速方法、模块、系统及存储介质,通过获取输入特征;获取输入特征的高位特征以及低位特征;对高位特征进行卷积以及最大值池化,得到高位池化结果;根据高位池化结果,得到对应的最大池化区域;对低位对应特征进行卷积,得到低位卷积结果;根据高位池化结果以及低位卷积结果,获得输入特征的最大池化结果。可见,采用输入特征的高位特征进行近似卷积,找到最大池化区域,再对低位特征对应的部分进行卷积,直接可以得到低位特征的低位池化结果,最终得到输入特征的最大池化结果因此可以减少输入特征进行最大池化时,减少低位特征75%的冗余卷积乘加操作,最终实现提高卷积池化计算的计算速度,降低计算能耗。
-
公开(公告)号:CN113298241B
公开(公告)日:2021-10-22
申请号:CN202110851351.3
申请日:2021-07-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明提供一种深度可分离卷积神经网络加速方法,包括:对输入神经元进行深度卷积,在进行所述深度卷积计算时,C输入通道的同M行在三维处理单元PE阵列里独立并行计算,得到C通道的同N行输出神经元,N
-
公开(公告)号:CN113298241A
公开(公告)日:2021-08-24
申请号:CN202110851351.3
申请日:2021-07-27
Applicant: 北京大学深圳研究生院
Abstract: 本发明提供一种深度可分离卷积神经网络加速方法,包括:对输入神经元进行深度卷积,在进行所述深度卷积计算时,C输入通道的同M行在三维处理单元PE阵列里独立并行计算,得到C通道的同N行输出神经元,N
-
公开(公告)号:CN113486200A
公开(公告)日:2021-10-08
申请号:CN202110783460.6
申请日:2021-07-12
Applicant: 北京大学深圳研究生院
IPC: G06F16/532 , G06N3/02
Abstract: 本发明提供一种稀疏神经网络的数据处理方法、处理器和系统,获取由所述稀疏神经网络的稀疏数据转换得到的稠密数据;将所述稠密数据中的权重数据和输入特征图进行通道匹配,将通道相同的权重数据和输入特征图匹配成对,得到和权重数据匹配的输入特征图的索引值;对匹配的权重‑输入特征图数据对进行PE阵列计算。实现了同时挖掘各特征图和权值数据的稀疏性,减少存储空间和运算量,降低系统延时并提高系统吞吐率。
-
公开(公告)号:CN113408710A
公开(公告)日:2021-09-17
申请号:CN202110789039.6
申请日:2021-07-13
Applicant: 北京大学深圳研究生院
Abstract: 本发明提供了一种深度卷积神经网络加速方法、模块、系统及存储介质,通过获取输入特征;获取输入特征的高位特征以及低位特征;对高位特征进行卷积以及最大值池化,得到高位池化结果;根据高位池化结果,得到对应的最大池化区域;对低位对应特征进行卷积,得到低位卷积结果;根据高位池化结果以及低位卷积结果,获得输入特征的最大池化结果。可见,采用输入特征的高位特征进行近似卷积,找到最大池化区域,再对低位特征对应的部分进行卷积,直接可以得到低位特征的低位池化结果,最终得到输入特征的最大池化结果因此可以减少输入特征进行最大池化时,减少低位特征75%的冗余卷积乘加操作,最终实现提高卷积池化计算的计算速度,降低计算能耗。
-
-
-
-
-
-