-
公开(公告)号:CN115964947A
公开(公告)日:2023-04-14
申请号:CN202211704600.7
申请日:2022-12-29
Applicant: 鹏城实验室
IPC: G06F30/27 , G06F9/50 , G06F111/04
Abstract: 本发明公开了基于多面体模型建模的自动并行策略搜索方法及相关设备,所述方法包括:根据每两个客户端的智算网络的智算中心资源,以最优的并行策略作为约束条件,分别对该两个客户端上的编解码架构模型进行分配;控制该两个客户端利用所有经过分配后的编解码架构模型,对所述智算中心资源进行协同训练和聚合操作,计算得到多面体模型的梯度值。通过先根据每两个客户端的智算网络的智算中心资源,对各自的编解码架构模型进行不同的分配,再利用经过分配后的编解码架构模型对所述智算中心资源进行协同训练和聚合操作,以便计算得到梯度值,从而实现根据不同算力分布、数据分布、以及不同业务场景进行分配,使得满足多种业务场景,实现大模型训练在智算网络中的规模化扩展。
-
公开(公告)号:CN115796192A
公开(公告)日:2023-03-14
申请号:CN202211011066.1
申请日:2022-08-23
Applicant: 鹏城实验室
IPC: G06F40/58 , G06F18/214
Abstract: 本发明实施例提供了一种多语言翻译模型的生成方法、翻译方法、终端及存储介质,通过获取多个第一单语语句,对预设自回归语言模型进行训练,生成预训练语言模型;所述预设自回归语言模型由解码器组成;获取多个双语语句对,并将所述双语语句对中互译的两个语句拼接,生成双语训练样本;基于所述双语训练样本对所述预训练语言模型进行训练,生成多语言翻译模型;所述多语言翻译模型用于将给定的源语言翻译出目标语句。通过上述方案,利用稀缺语言资源生成高翻译质量的多语言翻译模型,实现高质量的多语言翻译。
-
公开(公告)号:CN115270820A
公开(公告)日:2022-11-01
申请号:CN202210865989.7
申请日:2022-07-22
Applicant: 鹏城实验室
Abstract: 本发明公开了一种多语言翻译系统的持续学习方法、装置、终端及存储介质,方法包括:根据处理策略对翻译请求进行预处理;根据处理后的翻译请求分发对应的翻译模型,并通过翻译模型对处理后的翻译请求进行翻译推理;根据翻译结果进行置信度评估,并根据置信度评估结果触发请你翻译模式,将处理后的翻译请求调度至在线专家或其他用户侧;接收在线专家或其他用户侧反馈的翻译参考答案,激励翻译模型对反馈的翻译参考答案进行答案融合;接收其他用户侧反馈的翻译结果评分,并根据翻译结果评分及反馈的翻译参考答案对翻译模型进行持续学习,以扩充翻译模型的翻译分析数据和持续学习数据。本发明通过反馈打分和请你翻译的人机协作提高系统翻译性能。
-
公开(公告)号:CN115297008A
公开(公告)日:2022-11-04
申请号:CN202210793410.0
申请日:2022-07-07
Applicant: 鹏城实验室
Abstract: 本发明公开了一种基于智算网络的协同训练方法、装置、终端及存储介质,方法包括:获取若干个待训练算法及对应的数据集,并根据获取的若干个算法及数据集生成多个任务组;根据选择的任务组确定分布式智能协同计算平台中的待训练终端,并确定各待训练终端对应的待训练算法及数据集;通过跨异构智算中心的协同训练策略对所有待训练终端的模型进行协同训练及推理,得到协同训练及推理结果;根据所述协同训练及推理结果获取多模型融合策略,并通过所述多模型融合策略对训练后终端中的算法进行融合,得到基于分布式多框架的跨异构智算中心的协同计算模型。本发明可以实现单集群难以实现的大模型协同训练、多模型融合、大模型压缩等技术。
-
公开(公告)号:CN115297008B
公开(公告)日:2023-08-22
申请号:CN202210793410.0
申请日:2022-07-07
Applicant: 鹏城实验室
IPC: H04L41/14 , G06F18/214 , G06F18/25 , G06N5/04
Abstract: 本发明公开了一种基于智算网络的协同训练方法、装置、终端及存储介质,方法包括:获取若干个待训练算法及对应的数据集,并根据获取的若干个算法及数据集生成多个任务组;根据选择的任务组确定分布式智能协同计算平台中的待训练终端,并确定各待训练终端对应的待训练算法及数据集;通过跨异构智算中心的协同训练策略对所有待训练终端的模型进行协同训练及推理,得到协同训练及推理结果;根据所述协同训练及推理结果获取多模型融合策略,并通过所述多模型融合策略对训练后终端中的算法进行融合,得到基于分布式多框架的跨异构智算中心的协同计算模型。本发明可以实现单集群难以实现的大模型协同训练、多模型融合、大模型压缩等技术。
-
公开(公告)号:CN115423088A
公开(公告)日:2022-12-02
申请号:CN202210986537.4
申请日:2022-08-17
Applicant: 鹏城实验室
Abstract: 本发明公开了一种跨域数据异构的大模型在线剪枝方法及相关设备,方法包括:获取目标预训练模型和目标数据集;根据目标数据集对目标预训练模型进行预剪枝,得到预剪枝模型;将预剪枝模型的参数发送至云服务器进行处理,得到目标融合参数,将目标融合参数加载至预剪枝模型,得到目标融合模型,将目标预训练模型更新为目标融合模型;重新执行根据目标数据集对目标预训练模型进行预剪枝的步骤,直至完成预设数量的轮数后,将目标融合模型作为目标预剪枝模型;对目标预剪枝模型进行结构剪枝处理,得到目标剪枝模型;根据目标剪枝模型得到目标发布模型。本发明能够在跨域网络环境下,对模型进行在线剪枝,减少模型参数,降低大模型部署对硬件的要求。
-
公开(公告)号:CN115391156A
公开(公告)日:2022-11-25
申请号:CN202210983212.0
申请日:2022-08-16
Applicant: 鹏城实验室
Abstract: 本发明公开了一种跨域协同训练任务计算效率仿真方法及相关设备,所述计算效率仿真方法包括:输入跨域协同训练模型及相关参数;根据所述跨域协同训练模型及所述相关参数初始化跨域协同训练中五种类型计算阶段的仿真模型;根据所述相关参数中的跨域协同训练轮数,计算每个协同训练周期内不同阶段计算任务的时间点;根据所有协同训练周期内的时间点统计出跨域协同训练任务的计算效率指标。通过建立跨域协同训练中五种类型计算阶段的仿真模型后,计算所有协同训练周期内所有协同训练周期内的时间点,再统计出跨域协同训练任务的计算效率指标,从而实现了快捷计算跨域协同训练任务的仿真效率,提高了计算效率仿真的准确性。
-
-
-
-
-
-