-
公开(公告)号:CN107203807A
公开(公告)日:2017-09-26
申请号:CN201610149920.9
申请日:2016-03-16
Applicant: 中国科学院计算技术研究所
Abstract: 本发明适用于计算机技术领域,提供了一种神经网络的计算方法、系统及其装置,所述计算方法包括如下步骤:A、将神经网络划分为多个内部数据特征一致的子网;B、对每个所述子网进行计算,获得每个所述子网的第一计算结果;C、根据每个所述子网的第一计算结果计算所述神经网络的总计算结果,借此,本发明提升了神经网络的计算效率。
-
公开(公告)号:CN105528191B
公开(公告)日:2017-04-12
申请号:CN201510862723.7
申请日:2015-12-01
Applicant: 中国科学院计算技术研究所
IPC: G06F7/50
CPC classification number: G06F7/50
Abstract: 本发明公开一种数据累加装置、方法及数字信号处理装置,所述装置包括:累加树模块,采用二叉树结构的形式对输入数据进行累加,并输出累加结果数据;寄存模块,包含多组寄存器,对累加树模块在累加过程中产生的中间值数据及累加结果数据进行寄存;控制电路,生成数据选通信号以控制累加树模块过滤不需要累加的输入数据,以及生成flag标志信号以进行如下控制:选择将一个或多个存储于寄存器中的中间值数据与所述累加结果相加后的结果作为输出数据,或者选择直接将累加结果作为输出数据。由此,能够在一个时钟周期节拍内快速的将多组输入数据累加至一组和值。同时,所述累加装置可通过控制信号灵活选择同时累加多个输入数据中的部分数据。
-
公开(公告)号:CN105843775A
公开(公告)日:2016-08-10
申请号:CN201610210082.1
申请日:2016-04-06
Applicant: 中国科学院计算技术研究所
CPC classification number: G06F15/78 , G06F15/781 , G06F3/06 , G06F3/061 , G06F3/064 , G06F3/0655 , G06F15/7807 , G06F2003/0692
Abstract: 本发明适用于存储技术领域,一种片上数据划分读写方法,其特征在于,包括:数据划分步骤,根据数据划分策略将片上数据存储在不同区域,分别存储在片内存储介质和片外存储介质;预先操作步骤,在进行数据拼接时预先对片内存储数据的片内地址索引进行操作处理;数据拼接步骤,根据数据拼接策略将所述片内存储数据和片外输入数据拼接得到原始数据表示。同时还提供相应的片上数据划分读写系统及其装置。借此,本发明重复数据高效地进行读写,从而降低访存带宽需求,同时提供良好的灵活性,从而降低片上存储开销。
-
公开(公告)号:CN105528191A
公开(公告)日:2016-04-27
申请号:CN201510862723.7
申请日:2015-12-01
Applicant: 中国科学院计算技术研究所
IPC: G06F7/50
CPC classification number: G06F7/50 , G06F7/5095
Abstract: 本发明公开一种数据累加装置、方法及数字信号处理装置,所述装置包括:累加树模块,采用二叉树结构的形式对输入数据进行累加,并输出累加结果数据;寄存模块,包含多组寄存器,对累加树模块在累加过程中产生的中间值数据及累加结果数据进行寄存;控制电路,生成数据选通信号以控制累加树模块过滤不需要累加的输入数据,以及生成flag标志信号以进行如下控制:选择将一个或多个存储于寄存器中的中间值数据与所述累加结果相加后的结果作为输出数据,或者选择直接将累加结果作为输出数据。由此,能够在一个时钟周期节拍内快速的将多组输入数据累加至一组和值。同时,所述累加装置可通过控制信号灵活选择同时累加多个输入数据中的部分数据。
-
公开(公告)号:CN105488565A
公开(公告)日:2016-04-13
申请号:CN201510792463.0
申请日:2015-11-17
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
Abstract: 本发明提供一种加速深度神经网络算法的加速芯片的运算装置及方法,所述装置包括:向量加法处理器模块,进行向量的加法或减法、和/或深度神经网络算法中的pooling层算法的向量化的运算;向量函数值运算器模块,深度神经网络算法中的非线性求值的向量化运算;向量乘加器模块,进行向量的乘加运算;所述三个模块执行可编程指令,互相交互以计算神经网络的神经元值和网络输出结果、以及、代表输入层神经元对输出层神经元作用强度的突触权重变化量;所述三个模块中均设置有中间值存储区域,并对主存储器进行读取与写入操作。由此,能够减少对主存储器的中间值读取和写入次数,降低加速器芯片的能量消耗,避免数据处理过程中的数据缺失和替换问题。
-
公开(公告)号:CN108416437B
公开(公告)日:2021-08-03
申请号:CN201810249510.0
申请日:2016-04-18
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种用于乘加运算的人工神经网络的处理系统及方法,其中,所述人工神经网络的处理系统,包括:多核心处理模块,其包括多个核心处理模块,用于执行神经网络运算中的乘加运算。本公开用于乘加运算的人工神经网络的处理系统及方法,其在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。
-
公开(公告)号:CN108416436B
公开(公告)日:2021-06-01
申请号:CN201810249470.X
申请日:2016-04-18
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种使用多核心处理模块进行神经网络划分的方法及其系统,其中,人工神经网络的处理系统,包括:多核心处理模块,其包括多个核心处理模块;其中,所述神经网络根据多核处理模式进行神经网络划分,包括:从输入神经元划分、输出神经元划分和权值连接划分。本公开使用多核心处理模块进行神经网络划分的方法及其系统,其在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。
-
公开(公告)号:CN106529668B
公开(公告)日:2018-12-04
申请号:CN201610979814.3
申请日:2016-11-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
Abstract: 本发明提供一种加速深度神经网络算法的加速芯片的运算装置及方法,所述装置包括:向量加法处理器模块,进行向量的加法或减法、和/或深度神经网络算法中的池化层算法的向量化的运算;向量函数值运算器模块,深度神经网络算法中的非线性求值的向量化运算;向量乘加器模块,进行向量的乘加运算;所述三个模块执行可编程指令,互相交互以计算神经网络输出结果以及代表中间层之间神经元作用强度的突触权重变化量;所述三个模块中均设置有中间值存储区域,并对主存储器进行读取与写入操作。由此,能够减少对主存储器的中间值读取和写入次数,降低加速器芯片的能量消耗,避免数据处理过程中的数据缺失和替换问题。
-
公开(公告)号:CN108416436A
公开(公告)日:2018-08-17
申请号:CN201810249470.X
申请日:2016-04-18
Applicant: 中国科学院计算技术研究所
Abstract: 本公开提供了一种使用多核心处理模块进行神经网络划分的方法及其系统,其中,人工神经网络的处理系统,包括:多核心处理模块,其包括多个核心处理模块;其中,所述神经网络根据多核处理模式进行神经网络划分,包括:从输入神经元划分、输出神经元划分和权值连接划分。本公开使用多核心处理模块进行神经网络划分的方法及其系统,其在神经网络处理系统中引入多核设计,从而提升神经网络处理系统的运算速度,使得神经网络处理系统性能更高,更加高效。
-
公开(公告)号:CN106529668A
公开(公告)日:2017-03-22
申请号:CN201610979814.3
申请日:2016-11-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
Abstract: 本发明提供一种加速深度神经网络算法的加速芯片的运算装置及方法,所述装置包括:向量加法处理器模块,进行向量的加法或减法、和/或深度神经网络算法中的池化层算法的向量化的运算;向量函数值运算器模块,深度神经网络算法中的非线性求值的向量化运算;向量乘加器模块,进行向量的乘加运算;所述三个模块执行可编程指令,互相交互以计算神经网络输出结果以及代表中间层之间神经元作用强度的突触权重变化量;所述三个模块中均设置有中间值存储区域,并对主存储器进行读取与写入操作。由此,能够减少对主存储器的中间值读取和写入次数,降低加速器芯片的能量消耗,避免数据处理过程中的数据缺失和替换问题。
-
-
-
-
-
-
-
-
-