针对低温多芯片计算系统的模拟方法及其系统

    公开(公告)号:CN115374732A

    公开(公告)日:2022-11-22

    申请号:CN202210880357.8

    申请日:2022-07-25

    Abstract: 本申请公开了一种针对低温多芯片计算系统的模拟方法,方法包括:跨温区多芯片模拟通信系统搭建步骤、低温多芯片功能模拟步骤及低温多芯片时序模拟步骤;搭建相互通信连接的低温多芯片计算系统及室温数据通信系统,基于多种芯片的设计规范,行为级模拟描述低温中用于计算的多种芯片的功能以及多种芯片之间交互运行功能,并模拟多种芯片的输出执行结果;基于多种芯片的设计规范,模拟低温下各芯片内部的周期工作时序,并模拟多种芯片间的通信协议,以模拟低温多芯片计算系统的时序,并验证各个时序的正确性。本发明针对复杂的低温多芯片计算进行仿真和模拟,以便在流片前通过仿真调试及早发现系统问题并进行修改。

    板间通信接口系统
    92.
    发明公开

    公开(公告)号:CN115296742A

    公开(公告)日:2022-11-04

    申请号:CN202210764461.0

    申请日:2022-06-29

    Abstract: 本发明提出一种板间通信接口系统,包括:多个光纤通信单元,多个光纤通信单元之间通过光纤互联;每一个所述光纤通信单元均配置有光纤通信模块作为通信接口,还配置有Aurora协议IP核模块,与所述光纤通信模块互联。该系统基于Aurora协议实现光纤通信互联,满足了高速率和大容量等需求,使得数据在跨板卡之间也能高效、正确传输,提高传输速率,实现了远距离数据传输,消除了在电磁环境中外部设备对超导设备造成的干扰。

    跨平台光纤传输系统
    93.
    发明公开

    公开(公告)号:CN115296741A

    公开(公告)日:2022-11-04

    申请号:CN202210764423.5

    申请日:2022-06-29

    Abstract: 本发明提出一种跨平台光纤传输系统,所述系统包括:光纤通信转接单元与串并通信单元;所述光纤通信转接单元与所述串并通信单元均配置有光纤通信模块作为通信接口,所述光纤通信转接单元与所述串并通信单元之间通过所述光纤通信模块进行数据通信;所述光纤通信转接单元与上位机之间采用基于RIFFA可重用集成架构搭建PCIe进行数据传输。该跨平台光纤传输系统,系统性能高,能够实现跨平台、多板卡之间通信。

    一种用于分布式训练同步阶段的自动优化方法

    公开(公告)号:CN114925826A

    公开(公告)日:2022-08-19

    申请号:CN202210553741.7

    申请日:2022-05-20

    Abstract: 本发明提供一种用于分布式训练同步阶段的自动优化方法,所述方法包括在每个回合执行如下步骤:S1、获取在当前回合网络状态满足预设的系统要求的节点组成激活节点列表;S2、基于激活节点列表中的所有节点构建自动优化策略以从激活节点列表中选出使分布式系统效率最大的激活节点组合作为自动优化策略,并将自动优化策略对应的节点加入分布式训练。其中,所述激活节点列表包括当前回合已存在的激活节点列表以及当前回合新加入的新增激活节点列表,其中,所述当前回合新加入的新增激活节点列表是在当前回合网络状态满足系统要求的非激活节点组成的列表,所述非激活节点是指当前回合之前未加入分布式训练的节点。

    一种用于深度学习任务的GPU资源分配方法

    公开(公告)号:CN114896070A

    公开(公告)日:2022-08-12

    申请号:CN202210617292.8

    申请日:2022-06-01

    Abstract: 本发明提供了一种用于深度学习任务的GPU资源分配方法,包括:获取深度学习任务对应的网络结构特征、执行特征及可用资源集;基于利用率预测模型根据网络结构特征、执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集;基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从所有工作节点中选择一个工作节点为深度学习任务分配资源,并将深度学习任务及其资源需求发送给所选择的工作节点。本发明的技术方案通过对深度学习任务的资源需求量进行预测,根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享以及提升容器云集群中的GPU利用率。

    一种基于数据流架构的深度可分离卷积融合方法及系统

    公开(公告)号:CN113313251A

    公开(公告)日:2021-08-27

    申请号:CN202110522385.8

    申请日:2021-05-13

    Abstract: 本发明提出一种基于数据流架构的深度可分离卷积融合方法和系统,包括:将输入图像数据、卷积参数从主存DRAM搬运到数据缓存SPM;PE阵列通过从数据缓存SPM中读取该输入图像数据、卷积参数,以执行DW卷积,并将得到的DW卷积结果存储在PE内的寄存器中;PE阵列对寄存器中DW卷积结果进行激活计算得到该输入图像数据的初步结果Act_out,将该初步结果Act_out写回数据缓存SPM后,进一步存回主存;PE阵列通过从数据缓存SPM中读取初步结果Act_out与卷积参数,执行PW卷积得到最终结果Output;将最终结果Output写回数据缓存SPM后,进一步存回主存DRAM。本发明减少了数据的存储与访问带来的开销,使得深度可分离式卷积计算在数据流架构上的计算实现加速。

Patent Agency Ranking