-
公开(公告)号:CN115633031B
公开(公告)日:2024-02-23
申请号:CN202211082723.1
申请日:2022-09-06
Applicant: 鹏城实验室
Abstract: 本发明公开了一种启发式指导的异步历史优化方法及相关设备,所述方法包括:获取集群控制节点和工作节点,控制所述集群控制节点对模型的参数及计算图进行初始化,并将初始化后的数据发送至所述工作节点;控制所述工作节点对所述数据进行训练,通过训练得到的状态表记录信息,并控制所述工作节点将所述状态表发送至所述集群控制节点;在所述集群控制节点接收所述状态表后,控制所述集群控制节点异步进行所述计算图的更新和所述工作节点的参数优化。本发明通过集群控制节点不断整合多轮迭代中各工作节点的状态表并加以存储,通过不断更新计算图使得整个系统效率最优化,并通过还原历史梯度以辅助工作节点更新参数,以提高整个系统的精度。
-
公开(公告)号:CN117055125A
公开(公告)日:2023-11-14
申请号:CN202310898497.2
申请日:2023-07-20
Applicant: 鹏城实验室
IPC: G01V7/02 , G06F18/241 , G06F18/214 , G06F18/15 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种引力波候选信号的搜寻方法、电子设备和介质,方法包括:获取第一引力波时序数据;对第一引力波时序数据进行预处理,得到第二引力波时序数据;通过深度神经网络对第二引力波时序数据进行降噪处理,得到第三引力波时序数据;搜寻第三引力波时序数据中的多个极值时间点,并根据多个极值时间点得到多个潜在引力波候选信号;对多个潜在引力波候选信号进行信号分析处理,得到多个潜在引力波候选信号的置信度;根据置信度和预设的置信度阈值从多个潜在引力波候选信号中筛选出目标引力波候选信号,其中,本发明旨在基于深度学习算法直接对一维时序引力波数据进行搜寻,从而有效降低算力需求,并提高搜寻速度与精度。
-
公开(公告)号:CN115859097A
公开(公告)日:2023-03-28
申请号:CN202211441966.X
申请日:2022-11-17
Applicant: 鹏城实验室
IPC: G06F18/214 , G06N3/08
Abstract: 本发明公开了一种面向智慧科学的高扩展共享计算平台及方法,包括:发布模块,所述发布模块用于根据用户指令将本地预训练模型参数与预处理数据上传至存储节点,并通过解析模型参数量、使用框架以及关联数据集,生成对应的模型及数据描述文件;执行模块,所述执行模块用于将模型、数据以及计算资源进行结合,执行智慧科学模型的训练推理过程。本发明解决传统并行训练方式训练效率低及无法满足科学大模型的训练与微调的需求的问题,可适用于多个科学领域的神经网络模块的训练。
-
公开(公告)号:CN112395272B
公开(公告)日:2021-07-13
申请号:CN202110072482.1
申请日:2021-01-20
Applicant: 鹏城实验室
Abstract: 本发明公开一种通信算法数据库构建方法、分布式机器装置和存储介质,所述方法包括:根据分布式机器学习任务选取相关变量并进行配置,得到不同输入变量组合;将所述输入变量组合分别输入蒙特卡洛模型中进行仿真,获取各输入变量组合对应输出变量的概率值;建立所述输入变量组合与所述输出变量的概率值的通信算法数据库,所述通信算法数据库中包括多个通信算法,且每个通信算法中的输入变量组合与训练时间具有映射关系;根据所述通信算法数据库预估训练所述分布式机器学习任务所需的目标通信算法和目标输出变量,解决现有技术中分布式机器学习任务训练缓慢的问题,加快分布式机器学习任务的训练速度。
-
公开(公告)号:CN112766486A
公开(公告)日:2021-05-07
申请号:CN202011645194.2
申请日:2020-12-31
Applicant: 鹏城实验室
Abstract: 本发明公开了一种神经网络结构的搜索方法、终端、服务器及可读存储介质,方法包括:服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有第一参数时,发送携带第一参数的训练指令至终端,以使终端根据第一参数搜索目标神经网络结构并采用训练数据对目标神经网络结构进行训练。本发明提高了神经网络结构的搜索方法的资源利用率。
-
公开(公告)号:CN112434817A
公开(公告)日:2021-03-02
申请号:CN202110105293.X
申请日:2021-01-26
Applicant: 鹏城实验室
IPC: G06N20/00 , G06F16/901 , H04L12/24
Abstract: 本发明公开了一种构建通信算法数据库的方法、装置和计算机存储介质,该方法包括以下步骤:基于不同的软硬件配置和通信算法配置对预设用例进行机器学习模型训练;记录在不同的软硬件配置和通信算法配置下训练机器学习模型达到既定正确率所用的训练时间;将预设用例、不同的软硬件配置和通信算法配置和训练时间按照对应关系构建通信算法数据库。解决了现有的分布式机器学习中还存在如何优化并行训练中涉及到的通信算法的问题。
-
公开(公告)号:CN112257856A
公开(公告)日:2021-01-22
申请号:CN202011498964.5
申请日:2020-12-18
Applicant: 鹏城实验室
Abstract: 本发明公开了一种深度学习框架确定方法、设备及可读存储介质,该方法包括步骤:获取应用场景,并建立与所述应用场景对应的至少两个深度学习框架对应的深度学习仿真实验任务;基于预设硬件处理各所述深度学习仿真实验任务,得到深度学习框架评分结果;基于所述深度学习框架评分结果,选取评分最高的深度学习框架作为目标深度学习框架。本发明实现了根据深度学习框架评分结果确定最适合该应用场景的目标深度学习框架,从而使得使用深度学习框架的应用所使用的深度学习框架为最适合该应用的深度学习框架,进而提高了使用深度学习框架的应用的稳定性和效率。
-
公开(公告)号:CN112073517A
公开(公告)日:2020-12-11
申请号:CN202010941036.5
申请日:2020-09-09
Applicant: 鹏城实验室
Abstract: 本发明实施例提供了一种分布式数据传输优化方法、系统及相关设备,用于提高数据传输的效率。本发明实施例方法包括:获取多条训练数据及数据传输策略的超参数空间,每一条所述训练数据包含集群配置的一种数据传输策略及在执行对应的数据传输策略过程中所述集群在单位时间内的网络吞吐量参数,其中,每个初始策略包含一组预设参数字段以及各个预设参数字段的字段值;将所述多个训练数据及数据传输策略的超参数空间代入贝叶斯优化算法模型,计算得到当前训练数据下的最优数据传输策略。
-
公开(公告)号:CN112070238A
公开(公告)日:2020-12-11
申请号:CN202011245061.6
申请日:2020-11-10
Applicant: 鹏城实验室
Abstract: 本发明公开了一种准确的机器学习异步预测方法及系统、计算机可读存储介质,该方法包括以下步骤:在每次对模型进行训练后,将当前训练次数与相应的验证准确率记录在历史数据中并判断当前是否满足预测执行条件;若当前已满足所述预测执行条件,则采用层级式遍历拟合方法对当前历史数据进行曲线拟合;若已成功对所述当前历史数据进行曲线拟合,则计算每个拟合结果的误差值,并将误差值最小的拟合结果作为最终拟合结果;将待预测训练次数输入至所述最终拟合结果,计算后得到预测准确率,并利用所述预测准确率确定最终准确率。本发明实现了对机器学习模型准确率的精准预测,并且提高了对机器学习模型的准确率进行预测时的效率。
-
公开(公告)号:CN112766486B
公开(公告)日:2025-04-11
申请号:CN202011645194.2
申请日:2020-12-31
Applicant: 鹏城实验室
Abstract: 本发明公开了一种神经网络结构的搜索方法、终端、服务器及可读存储介质,方法包括:服务器确定是否存储有神经网络结构对应的第一参数;若确定存储有第一参数时,发送携带第一参数的训练指令至终端,以使终端根据第一参数搜索目标神经网络结构并采用训练数据对目标神经网络结构进行训练。本发明提高了神经网络结构的搜索方法的资源利用率。
-
-
-
-
-
-
-
-
-