深度神经网络模型并行模式选择方法

    公开(公告)号:CN112541584A

    公开(公告)日:2021-03-23

    申请号:CN201910897718.8

    申请日:2019-09-23

    Abstract: 本发明公开一种深度神经网络模型并行模式选择方法,包括以下步骤:S1、测算整个神经网络模型的总数据量;S2、判断S1中获得的神经网络模型的总数据量是否超过进行训练的单个计算节点的可用内存总量,如果不超过,执行S3,如果超过,执行S4;S3、选择数据并行模式;S4、将神经网络模型的网络层进行切分,根据切分的结果,得到神经网络模型所需要分布的计算节点数量,如果输入参数中的计算节点数量不足模型切分所需节点数量两倍以上,执行S5,否则执行S6;S5、选择模型并行模式;S6、选择包括数据并行和模型并行的混合并行模式。本发明通过对模型参数、超参数和数据量的信息采集和分析,实现分布式扩展并行模式的自动选择,并且保证较高的并行性能。

    面向申威众核架构的稀疏矩阵存储方法

    公开(公告)号:CN112540718A

    公开(公告)日:2021-03-23

    申请号:CN201910898286.2

    申请日:2019-09-23

    Abstract: 本发明公开一种面向申威众核架构的稀疏矩阵存储方法,所述众核处理器由4个异构群构成,每个异构群包括一个主核、64个从核构成的从核簇、异构群接口和存储控制器,整芯片有260个计算核心;所述稀疏矩阵存储格式包括以下步骤:S1、将稀疏矩阵按行在申威众核处理器的核组阵列上分组,每个从核分到的若干行为一组,将64个从核分为64组;S2、对每组内的稀疏矩阵非零元素按列压缩存储,通过保存稀疏矩阵每列包含的非零元数量而对列坐标进行压缩,需要保存列索引、行坐标和非零元值,完成存储。本发明能够为应用软件基于众核处理器的全过程求解提供一种统一的数据组织形式,从而提高该类问题对申威众核架构适应性。

    大规模异构并行计算的容错方法

    公开(公告)号:CN102929738B

    公开(公告)日:2015-02-11

    申请号:CN201210442295.9

    申请日:2012-11-06

    Abstract: 本发明提供了一种大规模异构并行计算的容错方法,包括:对每个时间步的每个核心计算模块,进行以下处理:将计算课题的计算数组的内容赋值给备份数组;完成核心计算模块的计算;其中,完成核心计算模块的计算包括:统计可用处理器核数,以获得第一处理器核数;可用处理器核并行运算核心计算模块;再次统计可用处理器核数,以获得第二处理器核数;比较第一处理器核数和第二处理器核数,若第二处理器核数小于第一处理器核数,则将备份数组的内容赋值给计算数组,并重新完成核心计算模块的计算,直至第一处理器核数与第二处理器核数一致。本发明的大规模异构并行计算容错方法能充分利用计算资源,减少故障恢复时间,提高并行计算的可靠性。

Patent Agency Ranking