-
公开(公告)号:CN102446155A
公开(公告)日:2012-05-09
申请号:CN201010508858.0
申请日:2010-10-12
Applicant: 无锡江南计算技术研究所
IPC: G06F15/163
Abstract: 一种同步装置及方法,所述同步装置包括:接收单元,用于接收来自处理器核的同步请求信号,所述同步请求信号携带至少两个待同步的处理器核的信息;信号生成单元,用于当所述接收单元接收到所述至少两个待同步的处理器核的同步请求信号且其中携带相同的待同步的处理器核的信息时,生成同步完成信号;发送单元,用于将所述信号生成单元生成的同步完成信号发送至对应的待同步的处理器核。采用本发明的同步装置进行多个处理器核的同步,软件上易于编程,提高了同步速率。
-
公开(公告)号:CN116070474A
公开(公告)日:2023-05-05
申请号:CN202310363122.6
申请日:2023-04-07
Applicant: 之江实验室 , 浙江大学 , 无锡江南计算技术研究所
IPC: G06F30/20 , G06F17/15 , G06F111/04 , G06F111/08
Abstract: 本发明公开了一种面向AI浮点融合运算单元的验证激励产生方法,该方法包括:针对新型AI浮点融合运算单元进行分析,获取输入操作数数量、输入操作数数据格式、输入操作数数据类型并构建相应参数模型;结合参数模型构造输入操作数之间的约束表达式、输入操作数和中间结果的约束表达式、输入操作数和输出结果的约束表达式;分别对三种约束表达式进行求解生成一定数量的验证激励;将验证激励分别送入参考模型和待验证新型AI浮点融合运算单元中比较计算结果和记录覆盖率。通过该方法可以提高验证人员对新型AI浮点融合运算单元的验证效率和验证覆盖率。
-
公开(公告)号:CN115357313A
公开(公告)日:2022-11-18
申请号:CN202211053429.8
申请日:2022-08-31
Applicant: 无锡江南计算技术研究所
Abstract: 一种支持融合算子生成的快速代码生成装置,属于深度学习技术领域。本发明包括:LDM区域划分模块,用于根据上层框架输入的网络尺寸参数,对本地的存储空间进行功能分区;融合算子地址配置模块,用于根据上层框架输入的融合算子类型,定义算子中输入、输出、中间结果数据在功能分区中的地址;融合算子数据交互模块,提供本地与主存,及本地与本地之间异步访存的函数接口;SIMD融合算子计算模块,用于根据融合算子地址配置模块生成的地址,对算子进行融合;脉动阵列指令配置模块,用于对驱动脉动阵列进行计算的指令进行配置。本发明能够有效降低代码错误率,提高代码生成效率,简化调试过程。
-
公开(公告)号:CN115357215A
公开(公告)日:2022-11-18
申请号:CN202211055136.3
申请日:2022-08-30
Applicant: 无锡江南计算技术研究所
Abstract: 本发明涉及机器学习技术领域,具体涉及一种支持累加及卸载的矩阵乘运算脉动阵列系统,包括呈矩阵排列的运算核心、北向数据加载器、西向数据整形与加载器、累加缓冲器、累加结果写回控制器和本地局部存储器,累加缓冲器包括两个缓冲器,两个缓冲器交替工作于累加模式及卸载模式下,运算核心包括乘法器、加法器和累加数据寄存器,乘法器接收北向数据和西向数据,乘法器计算北向数据和西向数据的乘积,加法器与乘法器及累加数据寄存器连接,加法器计算乘法器输出值与累加数据寄存器值的和,并输出到南侧的运算核心的累加数据寄存器。本发明的有益技术效果包括:通过设置双缓冲器轮流工作在累加模式和卸载模式,进一步提高矩阵乘法运算的效率。
-
公开(公告)号:CN115344232A
公开(公告)日:2022-11-15
申请号:CN202211017007.5
申请日:2022-08-24
Applicant: 无锡江南计算技术研究所
Abstract: 本发明公开了一种支持不同精度累加结果写回硬件的方法及装置,涉及数据处理技术领域,包括:构建多个运算单元组成的二维脉动阵列;读取本地局部存储器中的北向数据,预加载在矩阵乘法加速单元中从北向南传输;读取本地局部存储器中的西向数据,加载在矩阵乘法加速单元中从西向东传输;对西向数据和北向数据进行乘加操作;累加器缓冲接收矩阵乘法加速单元最南侧的一行运算单元传输下来的累加结果,完成所有中间结果累加;将缓存结果写回至本地局部存储器。本发明运算精度灵活可配,支持多种精度运算,同时累加结果写回电路支持写回精度灵活可配。
-
公开(公告)号:CN115271050A
公开(公告)日:2022-11-01
申请号:CN202210986888.5
申请日:2022-08-17
Applicant: 无锡江南计算技术研究所
Abstract: 一种神经网络处理器,属于高性能计算技术领域。本发明包括:控制核心,用于控制各个功能单元上的运算和处理;张量/向量/标量处理阵列,集成有n*m个张量/向量/标量处理单元,用于进行张量/向量/标量计算;内存单元,包括共享内存和若干个私有内存;片上网络单元,用于实现片上的各个功能单元之间的数据交换;集合操作加速单元,包括在线计算部件和在线压缩/解压部件,用于实现片上的支持集合操作的在线计算和在线解压缩;I/O接口单元,用于与其他神经网络处理器或者主处理器连接,以及实现芯片与其他芯片之间的数据交换。本发明能够有效提高神经网络模型训练和推理的算力,并增加数据处理的灵活性。
-
公开(公告)号:CN115269013A
公开(公告)日:2022-11-01
申请号:CN202210966615.4
申请日:2022-08-12
Applicant: 无锡江南计算技术研究所
Abstract: 本发明提供一种支持并发处理多个计算加速引擎的异步计算方法及装置,属于高性能微处理器设计技术领域。该方法包括如下步骤:S1:在加速核心内部集成多个用以处理不同的加速需求的异步计算引擎;S2:控制主流水线接收异步计算指令并基于异步计算指令获取异步计算请求;S3:基于异步计算请求从多个异步计算引擎中获取目标异步计算引擎,控制目标异步计算引擎进行异步计算处理得到处理结果,将处理结果存储在局部数据存储器中;S4:控制局部数据存储器和主流水线进行数据交互以将处理结果交互至主流水线。本发明可以支持一个或多个异步计算加速引擎,以应对应用中不同的加速需求,因此具有一定的灵活性和扩展性。
-
公开(公告)号:CN115268838A
公开(公告)日:2022-11-01
申请号:CN202210966726.5
申请日:2022-08-12
Applicant: 无锡江南计算技术研究所
IPC: G06F7/53 , G06F7/509 , G06F3/06 , G06F9/445 , G06F12/0877
Abstract: 本发明涉及累加器缓冲技术领域,具体为一种累加器缓冲结构及其数据累加卸载方法。一种累加器缓冲结构,包括一累加器缓冲控制逻辑;以及多个累加器缓冲模块,每一所述累加器缓冲模块均包括双缓冲单元,包括第一缓冲和第二缓冲,当所述第一缓冲处于第一工作模式时,所述第二缓冲处于第二工作模式;当所述第一缓冲处于第二工作模式时,所述第二缓冲处于第一工作模式;其中,所述第一工作模式为对累加结果进行缓存。本发明的实施例中,累加器缓冲模块可以通过第一缓冲对累加结果进行缓存,同时可以对第二缓冲中已缓存的累加结果进行卸载,省去了现有技术中等待累加结果卸载的时间,进而有效提高了累加器缓冲的工作效率。
-
公开(公告)号:CN110716709B
公开(公告)日:2021-10-29
申请号:CN201910864339.9
申请日:2019-09-12
Applicant: 无锡江南计算技术研究所
IPC: G06F7/503
Abstract: 本发明提供支持进位借位正常传递的多精度大整数算术运算加速单元,属于计算机体系结构和处理器微结构技术领域。该支持进位借位正常传递的多精度大整数算术运算加速单元包括512位操作数A[511:0]、512位操作数B[511:0]、进位借位寄存器索引idx、进位借位寄存器、512位运算结果RSLT[511:0]、功能码opf和运算装置。本发明可以直接实现512位数据之间的加减运算,进位借位寄存器保存512位计算的进借位,便于扩展实现更高精度大整数之间的加减运算,还可以直接实现两组128位数据之间的乘法运算,配合移位加操作可扩展实现更高精度大整数之间的乘法运算。
-
公开(公告)号:CN110688329B
公开(公告)日:2021-08-10
申请号:CN201910839658.4
申请日:2019-09-06
Applicant: 无锡江南计算技术研究所
IPC: G06F12/0875 , G06F9/30
Abstract: 本发明公开了一种可同时支持多套Cache数据私有段动态设置的方法,包括步骤S1、确定目标数据Cache中需要设置的n套私有段数据位置地址,为各个私有段数据设置相对应的n套第一私有段寄存器;S2、在目标数据Cache中分别设置与每套私有段数据相对应的第一比较器、第二比较器;S3、按一定规则对需要写入Cache中的数据行进行判断,来确定其是否具有“私有段标准”;S4、确认符合“私有段标准”后,在指令Cache中生成私有段设置指令;S5、设置指令发射规则判断器,对指令Cache内的指令执行情况进行判断;S6、确认在指令Cache内排列在私有段设置指令前的指令全部执行结束后,开始执行私有段设置指令,将需要写入Cache中的数据行写入与对应的私有段位置地址相联的数据Cache中。
-
-
-
-
-
-
-
-
-