降低贝叶斯深度神经网络计算复杂度的方法和装置

    公开(公告)号:CN112541564B

    公开(公告)日:2024-02-20

    申请号:CN201910894371.1

    申请日:2019-09-20

    Abstract: 本发明公开了一种降低贝叶斯深度神经网络计算复杂度的方法和装置。其中,该方法包括:获取目标贝叶斯深度神经网络模型的一层网络结构中的高斯分布参数对应的第一目标参数矩阵和第二目标参数矩阵;获取待识别的目标对象与第一目标参数矩阵进行运算得到的特征矩阵,及目标对象与第二目标参数矩阵进行运算得到的特征向量;利用特征矩阵和特征向量,与多个待确定矩阵中的每个待确定矩阵分别进行组合运算,得到多个识别子向量,其中,多个待确定矩阵为对参考曲线进行采样后得到;根据多个识别子向量确定与目标对象对应的识别结果。本发明解决了相关技术中需要对输入向量进行多次重复计算所导致识别操作复杂度较高的技术问题。

    一种用于微控制器的模型设计方法、部署方法及装置

    公开(公告)号:CN117150885A

    公开(公告)日:2023-12-01

    申请号:CN202310945397.0

    申请日:2023-07-28

    Abstract: 本申请提供了一种用于微控制器的模型设计方法、部署方法及装置,属于深度学习技术领域,其中一实施例的模型设计方法包括:对预先建立的超网结构池进行超网搜索,确定所述超网结构池中的最优超网结构;对所述最优超网结构进行单路径搜索,确定所述最优超网结构的最优单路径模型;对所述最优单路径模型进行第一预设周期数量的训练,得到训练好的最优单路径模型;对所述训练好的单路径模型进行第一预设次数的迭代剪枝操作和量化操作,生成最优稀疏单路径模型。本申请技术方案将稀疏模型引入了微控制器领域,使得在微控制器上部署更高性能的模型成为可能,有效地解决嵌入式设备上部署机器学习模型时所面临的问题。

    一种卷积计算数据流映射方法及装置

    公开(公告)号:CN112541565B

    公开(公告)日:2023-08-29

    申请号:CN201910894373.0

    申请日:2019-09-20

    Abstract: 本发明公开了一种卷积计算数据流映射方法及装置。其中,该方法包括:在卷积神经网络模型中执行目标卷积操作的过程中,按照通道分别对所述目标卷积操作所涉及的特征图中的接收域和涉及的卷积核进行分组,得到多个接收域分组和多个卷积核分组,对所述多个接收域分组中的基本块进行排序,得到接收域数据组,并对所述多个卷积核分组中的基本块进行排序,得到卷积核数据组,将所述接收域数据组和所述卷积核数据组输入到用于矩阵乘法的二维阵列中,得到所述二维阵列输出的矩阵的值。本发明解决了相关技术中卷积神经网络中卷积操作效率低的技术问题。

    基于脉动阵列的稀疏神经网络处理器

    公开(公告)号:CN110705703B

    公开(公告)日:2022-05-27

    申请号:CN201910982329.5

    申请日:2019-10-16

    Abstract: 本发明提供一种基于脉动阵列的稀疏神经网络处理器,包含存储单元、控制单元、稀疏矩阵运算阵列、计算单元、汇流阵列。存储单元用以存储权值、梯度、特征以及用于调度数据流的指令序列。控制单元依据指令序列的控制、从存储单元中取出训练与推理过程所需的数据,转换为稀疏矩阵运算的格式并送入到稀疏矩阵运算阵列。稀疏矩阵运算阵列包含以脉动阵列方式连接的多个处理单元,用以完成稀疏矩阵运算。计算单元用以完成非线性激活函数等逐元素操作。汇流阵列通过内部数据传递将相同数据段送到脉动阵列的不同行以降低存储开销。本处理器充分利用权值与特征的稀疏性,对神经网络训练与推理过程达成速度与功耗比的提升,具有高并发、低带宽需求等优势。

    一种基于磁随机存储器的支持通用计算的存内计算系统

    公开(公告)号:CN111798896B

    公开(公告)日:2022-04-12

    申请号:CN202010483849.4

    申请日:2020-06-01

    Abstract: 本发明属于通用存内计算领域,特别涉及一种基于磁随机存储器的支持通用计算的存内计算系统,包括GCIM架构,所述GCIM架构包括自旋转移力矩磁随机存储器阵列、移位器和连接器、行译码器、列译码器、位线驱动器、计算字线数模转化器、预充电感应放大器、第五代精简指令集处理器、指令解析器和寄存器。本发明不仅可以在内存中实现存储,而且可以在内存进行计算操作。此外,本发明可有效支持通用计算(包括逻辑计算、定点计算、浮点计算等),充分利用多个子阵列结构和改进的移位器和连接器,提高架构的可重构性和计算并行度,提高计算效率。

    一种卷积计算数据流映射方法及装置

    公开(公告)号:CN112541565A

    公开(公告)日:2021-03-23

    申请号:CN201910894373.0

    申请日:2019-09-20

    Abstract: 本发明公开了一种卷积计算数据流映射方法及装置。其中,该方法包括:在卷积神经网络模型中执行目标卷积操作的过程中,按照通道分别对所述目标卷积操作所涉及的特征图中的接收域和涉及的卷积核进行分组,得到多个接收域分组和多个卷积核分组,对所述多个接收域分组中的基本块进行排序,得到接收域数据组,并对所述多个卷积核分组中的基本块进行排序,得到卷积核数据组,将所述接收域数据组和所述卷积核数据组输入到用于矩阵乘法的二维阵列中,得到所述二维阵列输出的矩阵的值。本发明解决了相关技术中卷积神经网络中卷积操作效率低的技术问题。

    一种利用稀疏性的深度学习训练硬件加速器

    公开(公告)号:CN111368988A

    公开(公告)日:2020-07-03

    申请号:CN202010128655.2

    申请日:2020-02-28

    Abstract: 本发明公开了一种利用稀疏性的深度学习算法训练加速器及加速训练方法,将模型训练的计算过程分解为多个一维离散稀疏卷积操作及其结果的求和。本发明的加速器可以同时支持激活值稀疏性和梯度稀疏性,同时支持仅计算结果向量的指定分量;显著降低了训练过程的计算与访存开销;另外在该加速器的基础上引入梯度计算结果的剪枝,提高了梯度数据稀疏性,从而进一步提升计算性能和效率。

    用于降低存储开销的汇流阵列

    公开(公告)号:CN110764602A

    公开(公告)日:2020-02-07

    申请号:CN201910982582.0

    申请日:2019-10-16

    Abstract: 本发明提供一种用于降低存储开销的汇流单元(CE,collective element)阵列,包括多个CE,每个CE内部包含局部存储器,每一个CE可从阵列外或相邻CE接收数据,每一CE可将接收到的数据暂存在内部缓存或输出到阵列之外。本发明通过CE阵列内部的数据传递将一个存储器中的数据广播到多个输出端口上、从而有效地去除了不同存储器间的数据冗余。并在降低存储器容量需求的同时降低了从不同存储器中读取相同数据带来的额外功耗。

    基于振荡神经网络的信息内容确认方法及系统

    公开(公告)号:CN114398930B

    公开(公告)日:2024-06-14

    申请号:CN202210044447.3

    申请日:2022-01-14

    Inventor: 杨建磊 雷凡丁

    Abstract: 本发明提供一种基于振荡神经网络的信息内容确认方法及系统,其方法包括:将输入的数字信号编码为至少一个第一频率信号;对每个所述第一频率信号进行特征抽象化操作,生成对应的第二频率信号;对每个所述第二频率信号进行分类,输出分类结果,以基于所述分类结果确认所述待确认信息的内容,本发明通过对频率信号进行特征抽象化操作,进而克服了由于频率信号数值范围大且离散的特点,现有的传统神经网络训练方法无法应用于其上的问题,本发明的神经网络模型采用频率信号确认信息,可以实现高效、精确的振荡神经网络神经网络训练与推理,同时不存在实际部署导致的精度丢失问题。

Patent Agency Ranking