一种应用于图神经网络训练的采样方法及采样加速装置

    公开(公告)号:CN115600658A

    公开(公告)日:2023-01-13

    申请号:CN202211208844.6

    申请日:2022-09-30

    Abstract: 本发明提供一种应用于图神经网络训练的采样方法,用于在图神经网络训练过程中对图数据进行采样,所述采样方法包括:获取图数据中每个节点的所有邻居节点的存储位置,并以节点的所有邻居节点的存储位置随机排序构成该节点对应的邻居节点序列;基于得到的每个节点对应的邻居节点序列判断该节点的所有邻居节点是否符合集中分布;根据得到的每个节点的邻居节点的判断结果调整该节点被采样的概率,其中,将对应邻居节点符合集中的节点被采样的概率提高,将对应邻居节点不符合集中分布的节点被采样的概率降低;采用调整后的每个节点被采样的概率形成的概率分布对图数据进行采样。本发明减少了采样过程中的访存开销。

    一种面向图神经网络应用的片上存储系统及方法

    公开(公告)号:CN111695685A

    公开(公告)日:2020-09-22

    申请号:CN202010395809.4

    申请日:2020-05-12

    Abstract: 本发明提出一种面向图神经网络应用的片上存储系统及方法,包括:步骤1,根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;步骤2,根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的Sector Index字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。本发明能有效提升面向图神经网络应用的片上存储系统的利用率和访存通量。

    一种面向图神经网络应用的任务调度执行系统及方法

    公开(公告)号:CN111694643A

    公开(公告)日:2020-09-22

    申请号:CN202010395810.7

    申请日:2020-05-12

    Abstract: 本发明提出一种面向图神经网络应用的任务调度执行系统及方法,包括:待发射图运算符缓存模块读取待处理图运算符处理请求,根据待处理图运算符处理请求的图运算符标签,从缓存中获取所需输入数据;发射单元将待处理图运算符处理请求和输入数据发送给基于静态数据流的统一结构处理单元;统一结构处理单元根据图运算符标签的图运算符码将输入数据映射到相应的二叉运算树的输入上和图运算符执行帧,并完成本轮运算,得到中间结果;标签生成器依据前一轮运算标签信息,生成新的图运算符标签;统一结构处理单元将中间结果以及新的图运算符标签返回给待发射图运算符缓存模块;循环执行直至图运算符标签中剩余重复次数数值为1,将当前中间结果写回缓存。

    一种面向图神经网络应用的片上存储系统及方法

    公开(公告)号:CN111695685B

    公开(公告)日:2023-09-26

    申请号:CN202010395809.4

    申请日:2020-05-12

    Abstract: 本发明提出一种面向图神经网络应用的片上存储系统及方法,包括:步骤1,根据处理单元对图神经网络模型中向量数据的访存请求,判断在片上存储系统的第一级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则判断在片上存储系统的第二级CAM结构中是否有于该访存请求对应的查询结果,若有则执行步骤2,否则根据所需的向量数据批量对片外存储器发起片外访存请求,并替换片上存储内的指定向量数据;步骤2,根据该查询结果,得到对应的SPM索引标记,利用该SPM索引标记中的Sector Index字段以向量方式访问SPM中的相应向量数据,并将该相应数据返回给处理单元。本发明能有效提升面向图神经网络应用的片上存储系统的利用率和访存通量。

    一种用于分布式训练同步阶段的自动优化方法

    公开(公告)号:CN114925826A

    公开(公告)日:2022-08-19

    申请号:CN202210553741.7

    申请日:2022-05-20

    Abstract: 本发明提供一种用于分布式训练同步阶段的自动优化方法,所述方法包括在每个回合执行如下步骤:S1、获取在当前回合网络状态满足预设的系统要求的节点组成激活节点列表;S2、基于激活节点列表中的所有节点构建自动优化策略以从激活节点列表中选出使分布式系统效率最大的激活节点组合作为自动优化策略,并将自动优化策略对应的节点加入分布式训练。其中,所述激活节点列表包括当前回合已存在的激活节点列表以及当前回合新加入的新增激活节点列表,其中,所述当前回合新加入的新增激活节点列表是在当前回合网络状态满足系统要求的非激活节点组成的列表,所述非激活节点是指当前回合之前未加入分布式训练的节点。

    基于检查点的计算机的容错方法

    公开(公告)号:CN107193692B

    公开(公告)日:2020-01-21

    申请号:CN201710369325.0

    申请日:2017-05-23

    Abstract: 本发明提供一种基于检查点的计算机的容错方法。该方法包括:在判断为执行检查点时,暂停用户进程;利用计算机中空闲的计算资源对所述用户进程的进程状态数据进行分块并计算每个分块的hash值,以确定需要保存的分块;在计算分块的hash值的过程中,将已经确定的需要保存的分块和相应的hash值进行保存,以形成用于恢复出错的用户进程的检查点文件。利用本发明的方法能够有效的利用超级计算机中空闲计算资源和并行文件系统的I/O带宽,从而缩短执行检查点和检查点卷回的时间。

    基于检查点的计算机的容错方法

    公开(公告)号:CN107193692A

    公开(公告)日:2017-09-22

    申请号:CN201710369325.0

    申请日:2017-05-23

    Abstract: 本发明提供一种基于检查点的计算机的容错方法。该方法包括:在判断为执行检查点时,暂停用户进程;利用计算机中空闲的计算资源对所述用户进程的进程状态数据进行分块并计算每个分块的hash值,以确定需要保存的分块;在计算分块的hash值的过程中,将已经确定的需要保存的分块和相应的hash值进行保存,以形成用于恢复出错的用户进程的检查点文件。利用本发明的方法能够有效的利用超级计算机中空闲计算资源和并行文件系统的I/O带宽,从而缩短执行检查点和检查点卷回的时间。

Patent Agency Ranking