-
公开(公告)号:CN119473637A
公开(公告)日:2025-02-18
申请号:CN202510064880.7
申请日:2025-01-15
Applicant: 之江实验室
IPC: G06F9/50 , G06N3/063 , G06N3/0464
Abstract: 本说明书公开了一种计算任务规划方法、装置、存储介质及电子设备,获取待计算的神经网络层的计算数据的数据尺寸,根据参与神经网络层计算的计算核的总数量,确定各计算核需承担的计算任务对应的数据尺寸,对计算核需承担的计算任务对应的数据尺寸进行划分,得到子任务数据的数据尺寸,使计算核的存储容量与进行子任务数据对应计算任务所需的存储空间之间的差值最小化。子任务数据的数据尺寸为在一个通信周期,计算核读取的数据量,因为进行子任务数据对应计算任务所需的存储空间之间的差值最小化,所以应用本说明书中的方法,能够在神经网络的计算过程中,充分利用计算核的存储容量,实现资源利用率的最大化,从而加快神经网络计算的速度。
-
公开(公告)号:CN118862969A
公开(公告)日:2024-10-29
申请号:CN202411353441.X
申请日:2024-09-26
Applicant: 之江实验室
IPC: G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本说明书公开了一种模型运算优化方法、装置、存储介质及电子设备。在本说明书提供的模型运算优化方法中,获取目标模型,并确定所述目标模型中包含的运算功能;根据所述运算功能,确定执行所述运算功能所需的算子;对各算子中的至少部分算子进行拆分;根据所述各算子的输入、输出以及运算类型,对所述各算子与拆分后的算子进行融合,得到若干融合算子;采用所述融合算子执行所述目标模型中包含的所述运算功能。
-
公开(公告)号:CN117215973B
公开(公告)日:2024-05-28
申请号:CN202311179609.5
申请日:2023-09-13
Applicant: 之江实验室
IPC: G06F12/084 , G06N3/098
Abstract: 本申请涉及一种缓存数据的处理方法、深度学习训练方法和系统。应用于本地节点,本地节点连接远程节点以及服务器,本地节点设置有本地命中缓存区和本地淘汰缓存区:从本地命中缓存区中读取第一已缓存数据,并得到当前读取数据;其中,第一已缓存数据包括已分配至本地节点并缓存在本地命中缓存区的第一历史训练数据,以及本地节点从远程节点预读取并缓存至本地命中缓存区的第二历史训练数据;在服务器基于当前读取数据生成深度学习模型的情况下,本地节点将当前读取数据转移至淘汰缓存区中,得到第二已缓存数据。采用本方法能够提高深度学习训练的效率。
-
-