-
公开(公告)号:CN116991986B
公开(公告)日:2024-01-09
申请号:CN202311269260.4
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F16/33 , G06F16/35 , G06F18/214 , G06F18/23213
Abstract: 本申请涉及一种语言模型轻量化方法、装置、计算机设备和存储介质。所述方法包括:对初始语言模型的注意力层的可学习参数进行聚类,得到可学习参数的分区;对各个分区进行组合,得到初始语言模型的所有裁剪方式;基于初始语言模型的注意力层的各个功能在各个裁剪方式下的波动率,得到各个功能的对应分区;剔除或量化与待处理的任务所对应的功能相关性低的可学习参数,得到待训练的语言模型的可学习参数;基于待训练的语言模型的可学习参数,利用梯度下降法对可学习参数进行训练,直到收敛,得到完备的轻量化语言模型。采用本方法能够解决了现有的语言模型无法利用较少的计算资源来实现高精度的任务处理的问题。
-
公开(公告)号:CN116861149B
公开(公告)日:2024-01-09
申请号:CN202311136375.6
申请日:2023-09-05
Applicant: 之江实验室
Abstract: 题。本申请涉及一种卷积运算的优化方法、装置及处理器,处理器包括一级缓存,该方法包括:在内存中将卷积运算的输入张量重排为左矩阵,将卷积核重排为右矩阵;将所述左矩阵划分为多个加载矩阵,所述加载矩阵的尺寸基于所述一级缓存的容量确定;将所述多个加载矩阵依次从所述内存加载至所述一级缓存,与所述右矩阵执行矩阵乘计算;将所述多个加载矩阵对应的计算结果累加,得到所述卷积运算的结果,不需要增加输入张量的存储空间,解决了相关技术中存在的将(56)对比文件孙凡.卷积神经网络加速器的实现与优化.《中国优秀硕士学位论文全文数据库 信息科技辑》.2019,第2019年卷(第1期),I138-1895.Xiandong Huang等.Evaluating FFT-basedalgorithms for strided convolutions onARMv8 architectures《.PerformanceEvaluation》.2021,1-18.
-
公开(公告)号:CN116860259B
公开(公告)日:2023-12-19
申请号:CN202311138278.0
申请日:2023-09-05
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型训练和编译器自动调优的方法、装置及设备。所述模型训练的方法包括:获取目标程序,并确定编译器对该目标程序进行编译时的各优化序列;确定出初始优化序列并生成当前样本点,以及,确定初始优化序列对所述目标程序进行编译的第一运行时间;生成邻域样本点,并确定邻域样本点对目标程序进行编译的第二运行时间;判断第一运行时间是否大于第二运行时间,若是,将邻域样本点作为当前样本点;在达到指定迭代次数后,确定运行时间小于预设时间的若干个各候选优化序列,并根据各候选优化序列构建训练样本;通过构建的训练样本对预测模型进行训练。
-
公开(公告)号:CN117149778A
公开(公告)日:2023-12-01
申请号:CN202311414028.5
申请日:2023-10-30
Applicant: 之江实验室
IPC: G06F16/22 , G06F16/2455
Abstract: 本申请涉及稀疏张量运算加速领域,特别是涉及一种稀疏张量运算加速方法、系统、计算机设备和存储介质,所述方法包括:读取两稀疏张量的压缩表示元数据信息,确定各稀疏张量中非零元素被标记为无效计算元素时所对应的另一个稀疏张量的起始非缩并维度索引和终止非缩并维度索引,并以键值对的形式存储在无效计算元素标记范围映射表中;对所述两稀疏张量进行自适应协同分块,得到所述两稀疏张量的预分块信息;基于所述无效计算元素标记范围映射表以及所述两稀疏张量的预分块信息,得到最终分块;将所述最终分块依次搬运至更内层缓存,直至完成计算。本发明减少运行时稀疏张量数据分块划分的重复性操作,进一步节省稀疏张量运算时间。
-
公开(公告)号:CN117057439A
公开(公告)日:2023-11-14
申请号:CN202310893300.6
申请日:2023-07-20
Applicant: 之江实验室
IPC: G06N20/00 , G06F18/24 , G06F17/14 , G06N3/0464 , G06F18/214
Abstract: 本申请涉及一种模型参数更新方法、装置、计算机设备和存储介质。所述方法包括:接收联邦学习服务端发送的针对各联邦学习客户端所共有的数据分布预测模型的参数更新指令;其中,参数更新指令携带数据分布预测模型的共享参数和特定参数;响应于参数更新指令,对共享参数和特定参数进行更新,得到更新后的共享参数和更新后的特定参数;将更新后的共享参数发送至联邦学习服务端,并将更新后的特定参数保留在本地;接收联邦学习服务端对共享参数聚合处理后发送的聚合共享参数;基于聚合共享参数和更新后的特定参数确定对应的目标共享参数和目标特定参数。采用本方法能够解决数据异质性问题,提高数据分布预测模型的准确性。
-
公开(公告)号:CN116992820A
公开(公告)日:2023-11-03
申请号:CN202311260288.1
申请日:2023-09-27
Applicant: 之江实验室
IPC: G06F30/398 , G06F30/394 , G06F115/12
Abstract: 本申请涉及一种基于芯粒集成的可扩展智能计算芯片结构,其中,芯片结构包括:所述芯片结构包括中间介质层以及堆叠在所述中间介质层上的I/O芯粒、内存接口芯粒、RISC‑V控制芯粒以及至少一个计算芯粒堆叠组,并基于芯粒集成技术实现各功能芯粒的互连,本发明能够根据算力需求,配置计算芯粒堆叠组内部的计算核心数量,也可以配置计算芯粒堆叠组的数量,以配合其他功能芯粒,灵活地搭建智能计算芯片系统,具有高度可扩展性,各个功能芯粒可以不具备完整的功能,可以只具备实现特定功能的能力,各芯粒按照设计要求,进行灵活配置,满足针对不同场景的定制化需求,最大程度实现智能计算芯片的柔性定制。
-
公开(公告)号:CN116991429A
公开(公告)日:2023-11-03
申请号:CN202311266395.5
申请日:2023-09-28
Applicant: 之江实验室
IPC: G06F8/41 , G06F18/214
Abstract: 本申请涉及一种计算机程序的编译调优方法、装置和存储介质,其中,该编译调优方法包括:选择样本硬件集合和样本程序集合并为每个样本程序随机生成优化序列,对每种样本程序与优化序列的组合进行编译、特征抽取以及运行,得到训练数据集,基于训练数据集对预设的多任务学习模型进行训练,得到预训练模型,基于预训练模型进行成本函数模型的初始化,得到目标成本函数模型,利用该目标成本函数模型对目标源程序进行调优,得到目标源程序的最优优化序列。通过本申请,解决了相关技术中计算机程序编译调优效率低下的问题,提高了计算机程序的编译调优效率。
-
公开(公告)号:CN116931955A
公开(公告)日:2023-10-24
申请号:CN202311202659.0
申请日:2023-09-18
Applicant: 之江实验室
Abstract: 本说明书公开了基于人工智能的编译器自动调优方法及装置,在此方法中,将程序输入到模型中得到各优化序列,编译器针对每个优化序列对程序进行编译运行得到实际运行时间,据此来调整智能体模型输出各优化序列的概率,使得训练后的智能体模型能够输出最优的优化序列,而编译器使用最优优化序列对待运行程序进行编译优化,从而在一定程度上提高运行效率和减少资源浪费。
-
公开(公告)号:CN116896532A
公开(公告)日:2023-10-17
申请号:CN202310902761.5
申请日:2023-07-21
Applicant: 之江实验室
IPC: H04L47/12 , H04L69/163 , H04L43/0882
Abstract: 本发明公开了一种面向最小带宽保障的网络拥塞控制方法,所述方法包括以下步骤:(1)区分网络流的类型,所述类型包括截止时间流和非截止时间流;(2)根据网络流的类型设置最小窗口值;(3)在拥塞控制的各阶段调节拥塞窗口时,根据最小窗口值和拥塞程度对拥塞窗口值进行调整。本本发明还公开了一种面向最小带宽保障的网络拥塞控制装置及计算机可读存储介质,用于实现上述面向最小带宽保障的网络拥塞控制方法。发明通过区分时间截止流和非截止时间流,保障TCP截止流最小带宽,也能达到拥塞控制的目的。
-
公开(公告)号:CN116795324A
公开(公告)日:2023-09-22
申请号:CN202310810589.0
申请日:2023-07-03
Applicant: 之江实验室
Abstract: 本申请涉及一种混合精度浮点乘法装置和混合精度浮点数处理方法。所述装置通过指数偏置模块确定从寄存器中获取的至少两个浮点操作数的偏置,将各浮点操作数的偏置输入至对应的第一加法器以及将其结果输出至第二加法器,通过第一加法器利用各浮点操作数的偏置分别对各浮点操作数对应的指数进行偏置处理,确定各浮点操作数的偏置指数值,通过第二加法器对各浮点操作数的偏置指数值进行加法运算,得到中间指数值,通过精度转换单元,用于根据乘法单元输出的浮点数精度标注位确定目标浮点操作数的目标精度,基于目标精度对乘法单元输出的中间尾数和中间指数值进行转换,完成目标操作数的精度转换。采用本装置能够提高混合精度计算效率。
-
-
-
-
-
-
-
-
-