-
公开(公告)号:CN116776135B
公开(公告)日:2023-12-19
申请号:CN202311072802.9
申请日:2023-08-24
Applicant: 之江实验室
IPC: G06F18/2136 , G06N3/0464
Abstract: 本说明书公开了一种基于神经网络模型的物理场数据预测方法及装置,可以根据物理场数据整体在数据空间中各空间区域的数据稀疏情况,来对物理场数据进行划分,得到各分块数据,这样可以将具有计算价值的数据从物理场数据的整体中分割出来,使得预测模型对有价值的分块数据进行计算,以完成物理场数据的预测任务,从而相比于现有技术来说,可以显著的提升预测模型的运算效率。
-
公开(公告)号:CN116755862B
公开(公告)日:2023-12-19
申请号:CN202311010092.7
申请日:2023-08-11
Applicant: 之江实验室
IPC: G06F9/48 , G06T1/20 , G06V10/764 , G06V10/774
Abstract: 本说明书公开了一种算子优化调度模型的训练方法、装置、介质及设备,包括:确定当前时刻作为训练样本的预先基于图像数据训练的图像分类模型中的各算子的信息,并输入待训练的算子优化调度模型,确定当前时刻待优化算子。确定对待优化算子进行优化后的待优化算子对图像数据进行图像分类时的运行下降时间。再根据信息、待优化算子以及待优化算子对图像数据进行图像分类时的运行下降时间,对待训练的算子优化调度模型进行训练,使得可以通过训练完成的算子优化调度模型确定当前时刻所需调度进行优化的算子,减少人工设计选择所需优化的算子的策略的麻烦,加快后续将待部署的图像分类模型部署到硬件上的速度。
-
公开(公告)号:CN116306856A
公开(公告)日:2023-06-23
申请号:CN202310557259.5
申请日:2023-05-17
Applicant: 之江实验室
Abstract: 本说明书公开了一种基于搜索的深度学习模型部署方法及装置,可以获取深度学习模型所对应的计算图,确定计算图中包括的算子,并确定每个算子匹配的硬件资源,而后,根据各算子匹配的硬件资源,构建搜索空间,从搜索空间中选取出目标样本,并确定目标样本对应的运行时长,以及确定目标样本对应的邻域样本,并确定邻域样本对应的运行时长,若邻域样本对应的运行时长短于目标样本的运行时长,将邻域样本作为重新确定出的目标样本,并继续确定目标样本对应的邻域样本以及对应的运行时长,直到满足预设迭代终止条件为止,按照目标样本所对应的分配方案,对深度学习模型的算子进行硬件资源的分配,以进行部署,本方法可以提高深度学习模型的计算效率。
-
公开(公告)号:CN118334278B
公开(公告)日:2024-08-27
申请号:CN202410779806.9
申请日:2024-06-17
Applicant: 之江实验室
IPC: G06T17/20
Abstract: 在本说明书提供的一种点云数据处理方法、装置、存储介质及设备中,针对三维空间的每个维度,按照该维度的坐标大小,依次针对该维度的每个网格截面,确定该网格截面中标记网格的数量,与前一网格截面中标记网格的数量之间的差值,并通过预设范围,确定该维度的划分面,进而基于确定出的各划分面,得到该三维空间的划分结果,即基于点云数据所在标记网格的分布,实现了三维空间的划分,避免了相邻点云数据所在的标记网格被划分到不同三维子空间中,从而提高了基于该划分结果下的点云数据,通过预测模型,确定目标预测结果的预测效率。
-
公开(公告)号:CN117909746A
公开(公告)日:2024-04-19
申请号:CN202410322521.2
申请日:2024-03-20
Applicant: 之江实验室
IPC: G06F18/214 , G06F18/20
Abstract: 本说明书公开了一种用于空间探索的代理模型的在线数据选择方法,可以获取训练样本集,首先确定出训练样本集中样本的实际排序结果,在每一轮迭代训练前,通过上一轮得到的代理模型对训练样本集中的各样本进行排序,得到一个排序结果,通过实际排序结果确定出子数据集A和子数据集C,以及通过另一种排序结果,确定出子数据集B。根据子数据集A、B、C,对代理模型进行每一轮训练,训练完成后的代理模型可以对给出的若干待排序数据进行排序,本方法重点考虑排序高的空间点的数据拟合能力,并提供了一种高排序点和全空间点之间权衡的可控调节机制,从而提高了空间探索准确性,且由于提高了对高排序点的预测准确性,提高了探索的空间采样效率。
-
公开(公告)号:CN117077726B
公开(公告)日:2024-01-09
申请号:CN202311344094.X
申请日:2023-10-17
Applicant: 之江实验室
Abstract: 本申请公开了一种生成存内计算神经网络模型的方法,首先根据待构建的神经网络模型的目标任务,根据历史执行所述目标任务的任务数据作为训练样本,以及将目标任务的执行结果作为标注,之后通过对量化可微超网络的模型结构进行初始化,确定模型各节点之间数据传递顺序的有向无环图,确定架构参数以及权重参数,依该有向无环图的顺序,通过训练样本对权重参数进行调整,然后通过调整后的权重参数配置的模型,调整架构参数,得到存内运行的神经网络模型。通过权值继承,实现了可交替优化的两种参数,分别通过有监督训练和启发式学习进行调整,使得可以更为高效的学习深度神经网络架构。
-
公开(公告)号:CN117075918B
公开(公告)日:2024-01-09
申请号:CN202311328294.6
申请日:2023-10-13
Applicant: 之江实验室
Abstract: 在一种模型部署方法、装置、存储介质及电子设备中,响应于待优化模型,生成计算逻辑单元以及对应的张量程序,并确定各所述计算逻辑单元对应的类型。然后,依次确定各计算逻辑单元之后计算逻辑单元为约束单元,根据该计算逻辑单元的张量程序以及约束单元的张量程序,确定数据排布优化转换方案。最后,将该计算逻辑单元的张量程序、约束单元的张量程序以及转换方案组合,得到候选策略,根据耗时从各候选策略中选择目标策略并根据目标策略并进行模型部署。通过获取全局最优部署策略,解决了优化后各层中间表示最优结果存在冲突的情况,提高了模型部署效率。
-
公开(公告)号:CN116860259B
公开(公告)日:2023-12-19
申请号:CN202311138278.0
申请日:2023-09-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型训练和编译器自动调优的方法、装置及设备。所述模型训练的方法包括:获取目标程序,并确定编译器对该目标程序进行编译时的各优化序列;确定出初始优化序列并生成当前样本点,以及,确定初始优化序列对所述目标程序进行编译的第一运行时间;生成邻域样本点,并确定邻域样本点对目标程序进行编译的第二运行时间;判断第一运行时间是否大于第二运行时间,若是,将邻域样本点作为当前样本点;在达到指定迭代次数后,确定运行时间小于预设时间的若干个各候选优化序列,并根据各候选优化序列构建训练样本;通过构建的训练样本对预测模型进行训练。
-
公开(公告)号:CN116991429A
公开(公告)日:2023-11-03
申请号:CN202311266395.5
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F8/41 , G06F18/214
Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。
-
公开(公告)号:CN116931955A
公开(公告)日:2023-10-24
申请号:CN202311202659.0
申请日:2023-09-18
Applicant: 之江实验室
Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。
-
-
-
-
-
-
-
-
-