面向深度学习的去中心化并行梯度下降训练方法和系统

    公开(公告)号:CN116894461A

    公开(公告)日:2023-10-17

    申请号:CN202310935188.8

    申请日:2023-07-27

    Abstract: 本发明提出了一种面向深度学习的去中心化并行梯度下降训练方法和系统,该方法属于深度学习并行化领域,提出了基于历史权重的预训练、管道通信和基于缓冲权重的并行训练相结合的方法,实现了加速分布式系统训练深度神经网络的过程。该方法旨在为分布式深度学习任务提供更高效的训练方式,实现对深度神经网络模型的快速训练。建立基于历史权重的预训练方法,保证了模型收敛的稳定性,使得网络模型在训练过程中更加稳健地收敛于全局最优解。管道通信机制,分解了通信任务,增加了通信的并行粒度,提高了工作节点之间的信息交换效率。利用基于缓冲权重的并行训练方法,实现通信和计算操作的解耦,最大化硬件设备算力资源的利用率。

    一种基于卷积神经网络的苹果叶部病害诊断方法

    公开(公告)号:CN114638959A

    公开(公告)日:2022-06-17

    申请号:CN202210278313.8

    申请日:2022-03-21

    Abstract: 本发明提出了一种基于卷积神经网络的苹果叶部病害诊断方法,该方法针对含有不同大小的病变区域的苹果叶病检测问题,提出了多尺度特征提取、V‑空间定位分支和多尺度注意力机制相结合的苹果叶部病害检测方法,实现对不同尺度病斑的准确检测。该方法旨在对不同大小的病斑提取更可靠的特征表示,提高最终检测性能。建立多尺度特征提取,融合不同层次的特征,进一步提高苹果叶片病害,特别是小病斑的检测性能。然后提出了V‑空间定位分支,在增强病斑定位的纹理特征信息方面发挥了重要作用。同时,利用注意力机制,自动学习不同尺度的特征通道对区分不同大小的病斑的重要性。

    基于延迟感知的软同步分布式深度学习参数更新方法和系统

    公开(公告)号:CN118446275A

    公开(公告)日:2024-08-06

    申请号:CN202410590676.4

    申请日:2024-05-13

    Abstract: 本发明公开了一种基于延迟感知的软同步分布式深度学习参数更新方法和系统,它包含软同步更新策略和基于延迟的梯度加权平均算法;首先通过使计算节点在本地多次更新,进行梯度累加,大幅度的减少了工作节点与参数服务器节点之间的通信次数,进而减少了通信开销,同时也有效地利用了工作节点的内存空间。其次,每次在收到部分计算节点的梯度信息,为其生成权重并进行梯度加权平均,之后进行一次全局的模型更新,使得模型的训练朝着某一方向进行收敛,与异步更新相比,收敛方向更加稳定,可以有效缓解由于放宽同步屏障带来的梯度过时问题。

    一种基于混合并行的深度卷积神经网络并行训练方法

    公开(公告)号:CN115293342A

    公开(公告)日:2022-11-04

    申请号:CN202210264342.9

    申请日:2022-03-17

    Abstract: 本发明提出了一种基于混合并行的深度卷积神经网络并行训练方法,用于快速训练具有大数据集的大模型。该方法包含组内并行和组间并行。对于组内并行性,首先使用自动模型划分方法将模型分割为多个分区,并将多个分区分别放置在不同的GPU上。然后,将划分后的小批量数据一个接一个地连续发送到不同的GPU上,并且以流水线并行方式训练多个分区。组间并行在每个分组上复制模型副本,独立的计算梯度,然后在组间分区上将这些梯度的汇总更新,以达到最大化计算与通信重叠,从而减少梯度同步时间。实验结果表明,与传统数据并行和最先进的并行训练torchgpipe方法相比,本发明提出的方法加速性能得到了明显提升。

Patent Agency Ranking