-
公开(公告)号:CN107977704A
公开(公告)日:2018-05-01
申请号:CN201711102821.6
申请日:2017-11-10
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种神经网络中的权重数据存储方法和卷积计算方法。所述权重存储方法包括:查找权重卷积核矩阵中的有效权重并获取有效权重索引,其中,所述有效权重是非零权重,所述有效权重索引用于标记所述有效权重在所述权重卷积核矩阵中的位置;存储所述有效权重以及所述有效权重索引。根据本发明的权重数据存储方法和卷积计算方法能够节省存储空间并提高计算效率。
-
公开(公告)号:CN107844826A
公开(公告)日:2018-03-27
申请号:CN201711033537.8
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
IPC: G06N3/04
CPC classification number: G06N3/0454
Abstract: 本发明提供一种神经网络处理单元和包含该处理单元的处理系统。该处理单元包括:乘法器模块,所述乘法器模块包含构成流水线的多级结构,并用于执行神经网络中待计算的神经元和权值的乘法运算,其中,所述乘法器模块的每一级结构完成所述神经元和权值的乘法运算的子运算;自累加器模块,所述自累加器模块基于控制信号对所述乘法器模块的乘法运算结果进行累加运算或将累加结果输出。利用本发明的处理单元和处理系统,能够提高神经网络的计算效率和资源利用率。
-
公开(公告)号:CN107800700A
公开(公告)日:2018-03-13
申请号:CN201711026269.7
申请日:2017-10-27
Applicant: 中国科学院计算技术研究所
IPC: H04L29/06 , H04L29/08 , H04L12/865
CPC classification number: H04L67/2828 , H04L47/6275 , H04L67/2842 , H04L69/04
Abstract: 本发明涉及一种路由器,包括控制单元,用于控制所述路由器;缓存,用于将接收的数据包输出至所述交叉开关;交叉开关,用于将接收的数据包路由到相应的输出端口;压缩器,用于对接收的数据包进行压缩,并将压缩后的数据包返回至所述缓存;以及解压缩器,用于对接收的数据包解压缩,并将解压缩后的数据包返回至相应的输出端口。
-
-
公开(公告)号:CN107590533A
公开(公告)日:2018-01-16
申请号:CN201710753293.4
申请日:2017-08-29
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于深度神经网络的加速系统,包括:3D内存、与所述3D内存的拱顶的逻辑层上的内存控制器连接的深度神经网络计算单元、与所述内存控制器连接的路由器、以及压缩器和解压缩器;其中,各个拱顶的内存控制器经由与其连接的路由器通过片上网络进行数据传输;以及其中,所述压缩器用于对需要在片上网络中传输的用于深度神经网络的待压缩数据进行压缩,所述解压缩器用于对来自片上网络的用于深度神经网络的待解压缩数据进行解压缩。
-
公开(公告)号:CN107589935A
公开(公告)日:2018-01-16
申请号:CN201710777366.3
申请日:2017-09-01
Applicant: 中国科学院计算技术研究所
IPC: G06F7/57
Abstract: 本发明涉及一种非线性函数计算装置,包括查找单元,用于根据所述函数以及函数变量输入值确定对应的线性函数参数;以及计算单元,用于利用所述输入值和所述对应的线性函数参数进行计算。
-
公开(公告)号:CN105184366B
公开(公告)日:2018-01-09
申请号:CN201510587534.3
申请日:2015-09-15
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种时分复用的通用神经网络处理器,包括:至少一个存储单元(100),用于存储指令和数据;至少一个存储单元控制器(101),其中每个存储单元控制器(101)与至少一个存储单元(100)中的一个相对应并对相应的存储单元(100)进行访问;至少一个算术逻辑单元(103),用于执行神经网络计算;以及控制单元(102),与至少一个存储单元控制器(101)和至少一个算术逻辑单元(103)相连以经由至少一个存储单元控制器(101)获得至少一个存储单元(100)存储的指令,并且解析该指令以控制至少一个算术逻辑单元(103)执行计算。本发明提供的神经网络处理器通用性较强,适用于计算大规模神经网络。
-
公开(公告)号:CN107491811A
公开(公告)日:2017-12-19
申请号:CN201710777737.8
申请日:2017-09-01
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明提供了用于加速神经网络处理器的方法及相应神经网络处理器,其中从待处理的神经网络模型的原始数据和权重中提取非零值及其偏移量分别加载至相应数据存储单元和权重存储单元,在计算时选择具有相同偏移量的权重和数据加载至神经网络处理器的计算单元参与运算。这样,可有效降低神经网络处理器所处理的数据规模,从而减少片上存储开销,加快了运算速度并降低了能耗,使得神经网络处理系统性能更高效。
-
公开(公告)号:CN104346246B
公开(公告)日:2017-12-15
申请号:CN201310337288.7
申请日:2013-08-05
Applicant: 华为技术有限公司 , 中国科学院计算技术研究所
Abstract: 本申请实施例提供了一种故障预测方法和装置,所述方法包括:获取系统的第一历史信息,并将所述第一历史信息在预警规则集合中进行匹配;当所述第一历史信息匹配成功,生成预警指令;响应所述预警指令,获取系统的第二历史信息,所述第二历史信息包括所述第一历史信息;将所述第二历史信息在撤警规则集合中进行匹配,所述撤警规则包括历史信息与系统无故障状态的对应关系;当所述第二历史信息匹配成功,生成撤警指令,确定所述预警指令无效。通过本申请实施例,提高了故障预测的准确性。
-
公开(公告)号:CN107423816A
公开(公告)日:2017-12-01
申请号:CN201710182542.9
申请日:2017-03-24
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明涉及一种多计算精度神经网络处理方法与系统,该方法包括:步骤S1,从指令存储单元读取需要执行的指令,对该指令进行解析得到存储地址,并从该存储地址获取输入数据和权重;步骤S2,将该输入数据的位宽及该权重的位宽分别解码拓展为处理器设计最大数据位宽,生成原始数据和原始权重;步骤S3,分析该原始数据的位宽,关断计算单元阵列中的部分计算单元,并执行神经网络运算中的运算操作,生成计算数据;步骤S4,将该计算数据的位宽编码为神经网络下一层所需数据位宽,生成打包数据,并将该打包数据输出。本发明可使神经网络不同层采用不同的数据精度参与计算,在保证计算精度的前提下,减少了片上存储量,降低了数据传输能量损耗。
-
-
-
-
-
-
-
-
-