-
公开(公告)号:CN119148980A
公开(公告)日:2024-12-17
申请号:CN202411173637.0
申请日:2024-08-26
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供了一种用于全同态加密运算的加速装置和方法,装置包括:加速芯片,芯片上设有用于执行全同态加密算法中快速数论变换的模运算的多个模运算器组合,每个组合包括:模加器,被配置为基于模加指令根据被加数、加数和模数执行模加运算;模减器,被配置为基于模减指令根据被减数、减数和模数执行模减运算;模乘器,被配置为基于模乘指令根据被乘数、乘数和模数执行模乘运算;本发明的技术方案通过设置模加器、模减器和模乘器来分别完成全同态加密算法中计算开销最大的快速数论变换的模加运算、模减运算和模乘运算,可以避免在通用处理器中完成相应运算时需要用多组指令代替一条指令增加时间开销的问题,减少全同态加密算法的计算时间。
-
公开(公告)号:CN115016918B
公开(公告)日:2024-06-11
申请号:CN202210769041.1
申请日:2022-06-30
Applicant: 中国科学院计算技术研究所
IPC: G06F9/48 , G06F9/50 , G06F16/2455 , G06F16/2457
Abstract: 本发明实施例提供了一种用于数据流架构的计算设备的数据处理方法,所述计算设备包括多个计算节点和多个路由节点,每个计算节点用于调度执行指令槽中的指令,每个路由节点包括共享缓存,所述共享缓存用于缓存指令执行后的数据,共享缓存中指令执行后的数据被发送完毕后释放该数据占用的共享缓存空间,所述方法包括在计算节点执行如下操作:获取指令槽中所有处于就绪可执行状态的指令,对比获取到的所有指令被执行后的数据占用共享缓存后释放共享缓存空间的快慢,选择其中被执行后得到的数据占用的共享缓存空间被最快释放的优选指令进行执行。本发明每次选择当前能够最快释放共享缓存空间的优选指令进行执行,提升数据流架构的效率。
-
-
公开(公告)号:CN113296957B
公开(公告)日:2024-03-05
申请号:CN202110676326.6
申请日:2021-06-18
Applicant: 中国科学院计算技术研究所
IPC: G06F9/50
Abstract: 本发明实施例提供了一种用于动态分配片上网络带宽的方法及装置,该方法获取用户自定义配置的配置文件;根据配置文件将片上网络带宽划分为多个不同优先级的子带宽以及对片上网络上传输的任务进行优先级划分;为各优先级的子带宽分别维护与之对应的任务队列,将相应优先级的任务预分配到与之相同优先级的任务队列;基于轮询机制在每个时间片查询各个任务队列中的可用时间片以及判断相应任务的实时性需求能否满足,若不能满足,则根据所述可用时间片对任务队列中的任务进行重组以跨优先级利用子带宽,本发明可以在片上网络中充分利用带宽,更好地满足片上网络带宽中复杂的任务传输需求。
-
公开(公告)号:CN115391731A
公开(公告)日:2022-11-25
申请号:CN202210921474.4
申请日:2022-08-02
Applicant: 中国科学院计算技术研究所
Abstract: 本申请公开了一种基于数据流架构的Cholesky分解加速计算方法,所述方法包括:数据准备步骤、矩阵2×2分块计算步骤及矩阵1×1分块计算步骤;将数据流架构中处理单元PE阵列分为多个PE组,将不规则的待计算矩阵按照预定划分规则划分为规则的多个矩阵块,判断规模为N×N的待计算矩阵的N大于预定阈值,则采用基于2×2分块的cholesky拆分算法,循环迭代计算各个PE组中的矩阵块,且通过不同PE组对cholesky分解计算的数据依赖关系,实现PE组间数据传递,待计算矩阵的规模动态调整缩小;判断规模为N×N的所述待计算矩阵的N小于等于预定阈值,采用基于1×1分块的cholesky拆分算法,循环迭代计算,直至计算完成输出计算结果,完成基于数据流架构的Cholesky分解的加速计算。
-
公开(公告)号:CN115390923A
公开(公告)日:2022-11-25
申请号:CN202210843537.9
申请日:2022-07-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于多模式的SIMD应用高效执行方法和系统,包括:一种能灵活控制SIMD部件运行在不同粒度的SIMD部件架构,使得SIMD部件可以在不同的应用,以及同应用但不同规模等场景下保持高效的利用率。以及与之相配套的搜寻应用最佳粒度并生成应用在对应粒度下的映射方案的方法,以充分发挥多模式SIMD部件的能力。这种多模式SIMD部件能够应用于多种类型的芯片当中。
-
公开(公告)号:CN114925826A
公开(公告)日:2022-08-19
申请号:CN202210553741.7
申请日:2022-05-20
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于分布式训练同步阶段的自动优化方法,所述方法包括在每个回合执行如下步骤:S1、获取在当前回合网络状态满足预设的系统要求的节点组成激活节点列表;S2、基于激活节点列表中的所有节点构建自动优化策略以从激活节点列表中选出使分布式系统效率最大的激活节点组合作为自动优化策略,并将自动优化策略对应的节点加入分布式训练。其中,所述激活节点列表包括当前回合已存在的激活节点列表以及当前回合新加入的新增激活节点列表,其中,所述当前回合新加入的新增激活节点列表是在当前回合网络状态满足系统要求的非激活节点组成的列表,所述非激活节点是指当前回合之前未加入分布式训练的节点。
-
公开(公告)号:CN113313251A
公开(公告)日:2021-08-27
申请号:CN202110522385.8
申请日:2021-05-13
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。
-
公开(公告)号:CN113298236A
公开(公告)日:2021-08-24
申请号:CN202110676008.X
申请日:2021-06-18
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种基于数据流结构的低精度神经网络计算装置,包括输入缓存区,输出缓存区、权重缓存区以及PE阵列,其中,PE阵列中的每个PE包括乘加部件,所述乘加部件以SIMD方式进行乘加运算。本发明还提供一种基于上述装置的低精度神经网络加速方法。本发明节省了计算资源,减少了访存带来的开销。
-
公开(公告)号:CN113297131A
公开(公告)日:2021-08-24
申请号:CN202110660411.3
申请日:2021-06-15
Applicant: 中国科学院计算技术研究所
IPC: G06F15/82 , G06F15/173
Abstract: 本发明提供一种基于路由信息的数据流指令映射方法,包括:步骤M1,遍历数据流图的节点,对节点进行标号;步骤M2,依节点标号顺序以及PE阵列的PE状态表,对所述数据流图进行n层节点搜索,选取路由代价最小的方式对节点指令进行映射。本发明还提供基于路由信息的数据流指令映射系统。
-
-
-
-
-
-
-
-
-