-
公开(公告)号:CN117171577B
公开(公告)日:2024-03-22
申请号:CN202311450171.X
申请日:2023-11-02
Applicant: 之江实验室
IPC: G06F18/214
Abstract: 本说明书公开了一种高性能算子选择的动态决策方法及装置,包括:在选择模型中特定算子应该由算子库中具体的哪一个算子实现时,需要定位到模型中特定算子的shape特征的特征区间下,并确定该特征区间下的性能排序子表是否被更新过,若是,则可以直接通过该特征区间下更新好的性能排序子表选取出目标算子,若还未更新,则在模型训练阶段可以在每一轮训练时选取不同的算子在模型中进行训练,从而得到算子的性能分数,对性能排序子表进行更新,那么在后续训练这个模型(或者其他模型中需要相同特征区间下的shape特征的算子)时,可以直接使用该性能排序子表选取出合适的算子,从而相比于现有技术能够更加准确的选择出性能良好的算子。
-
公开(公告)号:CN116931955B
公开(公告)日:2024-01-09
申请号:CN202311202659.0
申请日:2023-09-18
Applicant: 之江实验室
Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。
-
公开(公告)号:CN117075918A
公开(公告)日:2023-11-17
申请号:CN202311328294.6
申请日:2023-10-13
Applicant: 之江实验室
Abstract: 在一种模型部署方法、装置、存储介质及电子设备中,响应于待优化模型,生成计算逻辑单元以及对应的张量程序,并确定各所述计算逻辑单元对应的类型。然后,依次确定各计算逻辑单元之后计算逻辑单元为约束单元,根据该计算逻辑单元的张量程序以及约束单元的张量程序,确定数据排布优化转换方案。最后,将该计算逻辑单元的张量程序、约束单元的张量程序以及转换方案组合,得到候选策略,根据耗时从各候选策略中选择目标策略并根据目标策略并进行模型部署。通过获取全局最优部署策略,解决了优化后各层中间表示最优结果存在冲突的情况,提高了模型部署效率。
-
公开(公告)号:CN116755862A
公开(公告)日:2023-09-15
申请号:CN202311010092.7
申请日:2023-08-11
Applicant: 之江实验室
IPC: G06F9/48 , G06T1/20 , G06V10/764 , G06V10/774
Abstract: 本说明书公开了一种算子优化调度模型的训练方法、装置、介质及设备,包括:确定当前时刻作为训练样本的预先基于图像数据训练的图像分类模型中的各算子的信息,并输入待训练的算子优化调度模型,确定当前时刻待优化算子。确定对待优化算子进行优化后的待优化算子对图像数据进行图像分类时的运行下降时间。再根据信息、待优化算子以及待优化算子对图像数据进行图像分类时的运行下降时间,对待训练的算子优化调度模型进行训练,使得可以通过训练完成的算子优化调度模型确定当前时刻所需调度进行优化的算子,减少人工设计选择所需优化的算子的策略的麻烦,加快后续将待部署的图像分类模型部署到硬件上的速度。
-
公开(公告)号:CN116502679A
公开(公告)日:2023-07-28
申请号:CN202310543696.1
申请日:2023-05-15
Applicant: 之江实验室
IPC: G06N3/0464 , G06N3/063 , G06N3/08
Abstract: 本说明书公开了一种模型构建方法、装置、存储介质及电子设备,可以对需要进行测试的各候选模型架构进行筛选,以筛选出通过代理模型预测出的性能参数的准确率较低的部分候选模型架构,来通过部署测试模型的方式获得该候选模型架构的真实性能参数,而针对剩余的候选模型架构,可以直接通过代理模型来获取出性能参数,并且可以通过主动学习的方法,在线对代理模型进行训练,从而可以在保证候选模型架构的性能评估准确率的同时,提升自动化构建深度学习模型的效率。
-
公开(公告)号:CN116483547A
公开(公告)日:2023-07-25
申请号:CN202310742056.3
申请日:2023-06-21
Applicant: 之江实验室
Abstract: 本申请涉及一种资源调度方法、装置、计算机设备和存储介质。所述方法包括:获取待调度的容器组;基于待调度的容器组,确定集群中与容器组匹配的目标节点;在待调度的容器组的优先级标志位为低延迟的情况下,将目标节点中的处理器资源分配至容器组中的容器,生成资源调度结果。采用本方法能够解决不同容器间资源抢占的问题。
-
公开(公告)号:CN116301904A
公开(公告)日:2023-06-23
申请号:CN202310559970.4
申请日:2023-05-18
Applicant: 之江实验室
IPC: G06F8/41 , G06N3/006 , G06N3/0475 , G06N3/08
Abstract: 本发明公开了一种用于深度学习编译器的算子优化加速方法及装置,目的是减少算子优化空间的搜索时间。该方法首先将神经网络抽象成计算图的形式,再对计算图进行图优化,并为优化后的计算图中的每个算子定义优化空间。然后以LightGBM为代价模型,粒子群优化算法为搜索算法对优化空间进行搜索。在每轮搜索中,对搜索算法输出的候选解采用DBSCAN进行聚类和采样,减少在硬件上的实测次数,进一步提升搜索效率。
-
公开(公告)号:CN117032936B
公开(公告)日:2024-02-06
申请号:CN202311267177.3
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F9/48 , G06F9/50 , G06F18/214 , G06N3/006
Abstract: 本申请涉及一种数据调度方法、装置和计算机设备。所述方法包括:对TPU上的数据进行分块,将加载时间和卸载时间均相同的数据划分为同一数据块;基于数据块所对应的加载时间和卸载时间,得到数据调度模型的初始参数;基于每块TPU存储量的大小,得到数据块占用TPU数量的时间分布;根据数据块占用TPU数量的时间分布,计算资源消耗量;利用粒子群优化算法,对初始数据调度模型的参数进行优化训练,直至按照训练后的数据调度模型进行数据调度的资源消耗量,达到按照预设的最少的TPU数量计算得到的资源消耗量时,停止训练,得到完备数据调度模型;基于完备数据调度模型,对TPU上的数据块进行数据调度。采用本方法能够解决计算机的计算
-
公开(公告)号:CN116991429B
公开(公告)日:2024-01-16
申请号:CN202311266395.5
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F8/41 , G06F18/214
Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。
-
公开(公告)号:CN116777010B
公开(公告)日:2023-12-19
申请号:CN202311080508.2
申请日:2023-08-25
Applicant: 之江实验室
IPC: G06N20/00
Abstract: 本说明书公开了一种模型训练的方法以及任务执行方法及装置,可以将获取到的在指定空间中混合物态在第一时刻下的各物理场数据输入到预测模型中,来训练该预测模型,这样一来,在将训练后的预测模型应用到实际任务执行的过程中时,相比于现有技术并不需要耗费过多的时间来一步步推导出下一时刻的指定空间中混合物态在第二时刻下的各物理场数据,这样不仅提高了预测物理场数据的效率,而且由于在训练阶段,是以混合物态在第一时刻和第二时刻前后之间的质量分布符合质量约束为条件,对预测模型进行训练,所以可以保证预测模型在实际应用中所预测出的物理场数据的准确性。(56)对比文件Shuai Wang et al..Multi-scalenumerical simulation of fluidized beds:Model applicability assessment.《Particuology 80》.2022,11-41.
-
-
-
-
-
-
-
-
-