-
公开(公告)号:CN116382599B
公开(公告)日:2023-08-29
申请号:CN202310669715.5
申请日:2023-06-07
Applicant: 之江实验室
Abstract: 本说明书公开了一种面向分布式集群的任务执行方法、装置、介质及设备。所述面向分布式集群的任务执行方法包括:获取样本数据,根据磁盘带宽和本地延迟,以及网络带宽和网络延迟,对样本数据的数量进行划分,将第一样本数量的样本数据存储在各计算节点的本地磁盘,将第二样本数量的样本数据存储在存储节点,针对每个计算节点,将该计算节点的本地磁盘中指定数量的样本数据与其他计算节点的本地磁盘中的样本数据进行交换,得到更新后样本数据,以及,从所述存储节点中读取远端样本数据,根据更新后本地样本数据和远端样本数据,在该计算节点上执行当前训练周期针对目标模型的训练任务。
-
公开(公告)号:CN116610964A
公开(公告)日:2023-08-18
申请号:CN202310893532.1
申请日:2023-07-20
Applicant: 之江实验室
IPC: G06F18/22 , G06F16/332
Abstract: 本申请涉及一种文本相似度匹配方法、装置和计算机设备。所述方法包括:利用大模型服务接口获取到的信息,构建基础问答数据集;对基础问答数据集进行相关性扩展,生成与基础问答数据集相关的扩展内容;利用预设的综合评价指标,对扩展内容进行评估,将评估结果满足预设条件的扩展内容并入基础问答数据集,生成完备问答数据集;根据完备问答数据集的数据结构,选取具备对应网络架构的问答模型,并采用梯度下降法对问答模型的参数进行更新,直至问答模型收敛,生成用于文本相似度匹配的完备问答模型;基于完备问答模型,进行文本相似度匹配。采用本方法能够解决现有的基于文本相似度匹配的智能问答技术存在回答问题的效率和准确率低的问题。
-
公开(公告)号:CN116542324A
公开(公告)日:2023-08-04
申请号:CN202310821100.X
申请日:2023-07-06
Applicant: 之江实验室
Abstract: 本发明提供了一种面向智能计算的分布式异步规约方法和装置,充分利用计计算集群内部的CPU和GPU异构计算资源,GPU只负责梯度计算,将参数更新和梯度规约卸载到CPU上执行。通过全局参数的训练迭代次序更新、全局参数的训练迭代次序同步、全局梯度同步这三个部分完成所有GPU之间的梯度更新和参数计算。有效提升了分布式训练中的通信和计算的并行性,提升了分布式训练的系统效率和性能。
-
公开(公告)号:CN116303974B
公开(公告)日:2023-08-01
申请号:CN202310486966.X
申请日:2023-05-04
Applicant: 之江实验室
IPC: G06F16/332 , G06F40/35 , G06F18/214 , G06N20/20
Abstract: 本申请涉及一种基于目标生成式回应语言模型的回应方法和装置。其中,该方法包括:基于教育设备中的提示数据集,训练得到初始生成式提示语言模型和初始生成式回应语言模型;并利用评分模型对二者的预测结果进行评分;基于对评分值的加权计算结果,通过强化学习和对抗学习进一步训练初始生成式提示语言模型和初始生成式回应语言模型,得到目标生成式回应语言模型;将教育设备采集的待测文本数据输入目标生成式回应语言模型,目标生成式回应语言模型将待测文本数据与对话数据进行拼接,得到相应的回应。采用本方法能生成多样的新提示,并加强生成式提示语言模型和生成式回应语言模型之间的交互,从而进一步改善生成式语言模型的意料外行为问题。
-
公开(公告)号:CN116436962A
公开(公告)日:2023-07-14
申请号:CN202310376290.9
申请日:2023-03-31
Applicant: 之江实验室
IPC: H04L67/2885 , H04L67/10
Abstract: 面向DFS的全局聚合命名空间下跨计算节点的持久性缓存方法,包括:所有计算节点能按需访问存储在宿主计算节点、远端计算节点或数据存储服务器的任意文件;计算节点根据任务需求和元数据服务器给出的文件布局信息,通过策略引擎预设的缓存预取策略,反向使用条带化技术,根据缓存类型需求,将相关文件从数据存储服务器端复制或迁移到相应的多个计算节点本地持久性缓存设备;当缓存在多个计算节点的数据满足预设条件时,通过策略引擎预设的缓存替换或驱逐策略,将对相关计算节点端数据进行替换或驱逐到数据存储服务器端;根据待操作的相关文件是否已经缓存到对应计算节点本地持久性存储器中的情形,协同完成相关操作。
-
公开(公告)号:CN116306856A
公开(公告)日:2023-06-23
申请号:CN202310557259.5
申请日:2023-05-17
Applicant: 之江实验室
Abstract: 本说明书公开了一种基于搜索的深度学习模型部署方法及装置,可以获取深度学习模型所对应的计算图,确定计算图中包括的算子,并确定每个算子匹配的硬件资源,而后,根据各算子匹配的硬件资源,构建搜索空间,从搜索空间中选取出目标样本,并确定目标样本对应的运行时长,以及确定目标样本对应的邻域样本,并确定邻域样本对应的运行时长,若邻域样本对应的运行时长短于目标样本的运行时长,将邻域样本作为重新确定出的目标样本,并继续确定目标样本对应的邻域样本以及对应的运行时长,直到满足预设迭代终止条件为止,按照目标样本所对应的分配方案,对深度学习模型的算子进行硬件资源的分配,以进行部署,本方法可以提高深度学习模型的计算效率。
-
公开(公告)号:CN116258197A
公开(公告)日:2023-06-13
申请号:CN202310545694.6
申请日:2023-05-16
Applicant: 之江实验室
Abstract: 基于参数计算和通信调度的分布式训练加速方法,包括:根据反向传播算法各层梯度之间不存在依赖关系的特点,通过调整梯度计算顺序,优先计算模型靠前层的梯度,从而提早梯度的传输时间,使得下轮该层的前向传播过程能够更早开始;对于梯度传输过程,通过动态枚举梯度拆分或融合阈值,并结合实时运行情况来选择性能最优的方案。还包括一种基于参数计算和通信调度的分布式训练加速系统。本发明增加了计算和通信之间的覆盖度,提升了训练性能,且实现上简单灵活,能够快速适配不同的模型及训练环境。
-
公开(公告)号:CN116167463A
公开(公告)日:2023-05-26
申请号:CN202310461389.9
申请日:2023-04-26
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型训练的方法、装置、存储介质及电子设备,将目标模型进行拆分,以得到各子模型,根据各个子模型,确定用于部署各个子模型的各计算节点,并在各计算节点上创建各容器,以将各子模型分别部署到所述各容器内。采用样本数据执行模型训练任务,以训练各容器内的部署的子模型。根据各计算节点的负载数据以及各容器对应的运算时长,确定出需要调整容器分布的计算节点,作为目标节点。以部署有子模型的各计算节点中的容器所对应的运算时长之间的偏差位于预设偏差范围内为调整目标,对目标节点中各容器的分布进行调整;基于调整容器分布后的各计算节点,执行目标模型的训练任务。
-
公开(公告)号:CN115774736B
公开(公告)日:2023-05-09
申请号:CN202310095934.7
申请日:2023-02-10
Applicant: 之江实验室
IPC: G06F16/2455 , G06F16/245 , G06F16/2453 , G06F16/22 , G06F16/901 , G06F16/903 , G06F9/50
Abstract: 本发明公开了一种数据延迟发送的NUMA架构时变图处理方法与装置,首选基于基线快照建立初始的时变图数据表示;根据更新快照以更新时变图数据表示,并构建快照并集;基于快照并集,在NUMA节点内部进行迭代计算,更新并累积顶点数据;将累积的顶点数据传播到其他NUMA节点以更新其他顶点数据;循环上述步骤,直至每个NUMA节点内没有可计算的活动顶点,对每个NUMA节点输出的结果进行聚合,完成NUMA架构时变图的处理。本发明关注了服务器的NUMA结构特征,实现了数据的合理分配以及数据包的灵活传输,降低了NUMA节点间的通信频率,提高计算资源的利用率,使时变图的计算效率得到显著提高。
-
公开(公告)号:CN115469815B
公开(公告)日:2023-04-18
申请号:CN202211341478.1
申请日:2022-10-31
Applicant: 之江实验室
IPC: G06F3/06 , G06F16/22 , G06F16/2455
Abstract: 本发明公开了提高闪存可靠性的缓存管理方法、装置、设备和储存介质,该装置包括主控模块、缓存管理模块和可靠性记录表,该方法是通过主控模块进行闪存的控制和管理,缓存管理模块管理读缓存和写缓存,可靠性记录表记录数据块在缓存中的驻留时间。此方法减轻闪存块由于接近擦除极限而导致的数据丢失问题,从而在保证闪存存储性能的同时提高了闪存存储的可靠性。
-
-
-
-
-
-
-
-
-