一种加速分布式深度神经网络训练的混合流水线并行方法

    公开(公告)号:CN112784968A

    公开(公告)日:2021-05-11

    申请号:CN202110134151.6

    申请日:2021-01-29

    Applicant: 东南大学

    Abstract: 本发明提供一种加速深度神经网络分布式训练的混合流水线并行方法,主要解决传统GPU集群分布式训练过程中资源利用不充分,无法实现高效分布式训练的问题。本发明的核心机制主要包含三个部分,分别是深度学习模型刻画、模型混合划分与混合流水线并行划分。本发明首先针对深度学习应用在GPU训练过程中的资源需求,刻画出其训练过程中计算量、中间结果通信数量、参数同步量等相应指标,并将其作为模型混合划分与任务放置的输入。然后根据模型刻画结果和GPU集群的环境,设计两个基于动态规划的划分算法,实现模型混合划分与混合流水线并行划分,目的是最小化划分之后各阶段任务执行时间的最大值,以确保负载均衡,实现深度神经网络的高效分布式训练。

    一种加速分布式深度神经网络训练的混合流水线并行方法

    公开(公告)号:CN112784968B

    公开(公告)日:2024-12-03

    申请号:CN202110134151.6

    申请日:2021-01-29

    Applicant: 东南大学

    Abstract: 本发明提供一种加速深度神经网络分布式训练的混合流水线并行方法,主要解决传统GPU集群分布式训练过程中资源利用不充分,无法实现高效分布式训练的问题。本发明的核心机制主要包含三个部分,分别是深度学习模型刻画、模型混合划分与混合流水线并行划分。本发明首先针对深度学习应用在GPU训练过程中的资源需求,刻画出其训练过程中计算量、中间结果通信数量、参数同步量等相应指标,并将其作为模型混合划分与任务放置的输入。然后根据模型刻画结果和GPU集群的环境,设计两个基于动态规划的划分算法,实现模型混合划分与混合流水线并行划分,目的是最小化划分之后各阶段任务执行时间的最大值,以确保负载均衡,实现深度神经网络的高效分布式训练。

Patent Agency Ranking