-
公开(公告)号:CN116205232B
公开(公告)日:2023-09-01
申请号:CN202310212123.0
申请日:2023-02-28
Applicant: 之江实验室
IPC: G06F40/295 , G06F40/30 , G06F40/211 , G06F18/214 , G06F16/33
Abstract: 本说明书公开了一种确定目标模型的方法、装置、存储介质及设备,通过获取结构不完全相同的各待定模型构建强化学习的搜索空间,并将从搜索空间中确定作为目标模型的待定模型的操作作为动作,根据执行该动作后得到的目标模型的结构确定状态。并且可通过训练得到的目标模型输出训练样本的预测结果,以根据预测结果确定奖励值。之后则可继续根据搜索空间中剩余的待定模型重新确定作为目标模型的待定模型,并训练重新得到的目标模型以重新确定奖励值。可根据重新确定的奖励值与历史确定的奖励值中,最高的奖励值对应的目标模型的结构更新状态,直至遍历各待定模型为止,根据最终确定出的状态,确定出最优的目标模型的结构。
-
公开(公告)号:CN116661574A
公开(公告)日:2023-08-29
申请号:CN202310860078.X
申请日:2023-07-13
Applicant: 之江实验室
IPC: G06F1/20 , G06F18/214
Abstract: 本说明书公开了一种计算设备散热的方法、装置、存储介质及电子设备,本方法通过确定各时刻的计算设备的芯片的特征以及计算设备的散热单元中冷却介质的特征确定训练样本,并获取散热单元的控制指令作为训练样本的标注,然后针对每个特征维度,根据该维度的特征对训练样本进行排序以确定该维度的样本序列,再确定标注相同且连续的各训练样本组成的待选样本组,并确定包含训练样本数量不小于预设数量的待选样本组作为目标样本组,根据各目标样本组以及各目标样本组对应的标注确定控制规则,进一步对计算设备进行散热控制。本方法通过对历史上控制指令、芯片特征以及散热单元中冷却介质的特征的学习生成控制规则,使计算设备可以自行进行散热控制。
-
公开(公告)号:CN116301904B
公开(公告)日:2023-08-22
申请号:CN202310559970.4
申请日:2023-05-18
Applicant: 之江实验室
IPC: G06F8/41 , G06N3/006 , G06N3/0475 , G06N3/08
Abstract: 本发明公开了一种用于深度学习编译器的算子优化加速方法及装置,目的是减少算子优化空间的搜索时间。该方法首先将神经网络抽象成计算图的形式,再对计算图进行图优化,并为优化后的计算图中的每个算子定义优化空间。然后以LightGBM为代价模型,粒子群优化算法为搜索算法对优化空间进行搜索。在每轮搜索中,对搜索算法输出的候选解采用DBSCAN进行聚类和采样,减少在硬件上的实测次数,进一步提升搜索效率。
-
公开(公告)号:CN116361037B
公开(公告)日:2023-08-18
申请号:CN202310561547.8
申请日:2023-05-18
Applicant: 之江实验室
IPC: G06F9/54 , G06F9/50 , G06F15/173 , G06N3/098 , H04L67/133 , H04L67/60
Abstract: 本说明书公开了一种分布式通信系统及方法,通过第二动态通信网络对象基于第一工作节点发送的通知消息,在第二设备的内存中分配用于存储所述目标数据的目标内存,并基于目标数据和目标内存生成读取请求,并将读取请求发送给第一动态通信网络对象,从而,第一动态通信网络对象根据从读取请求中得到的目标数据的属性,从第一设备的内存中查找目标数据,并将目标数据通过写操作写入第二设备的目标内存,第二工作节点基于目标内存中的目标数据执行数据处理任务。可见,通过第一动态网络对象以及第二动态网络对象之间的交互,实现了跨设备的直接通信,无需大量不必要的数据拷贝,也不会占用中央处理器资源,从而提高了通信效率和数据并行的规模。
-
公开(公告)号:CN116204387B
公开(公告)日:2023-07-21
申请号:CN202310461391.6
申请日:2023-04-26
Applicant: 之江实验室
Abstract: 本说明书公开了一种芯片电流的预测方法、装置、介质及电子设备,采用可解释人工智能技术,获取芯片中的任务负载状态以及指令集,该任务负载状态包括运算单元任务负载状态和缓存单元任务负载状态。将该芯片的任务负载状态输入到第一回归模型,以使第一回归模型确定该芯片维持该任务负载状态的所需电流。并将该指令集输入第二回归模型,以使第二回归模型确定该芯片执行该指令集中的指令后的电流变化值。根据该芯片维持该任务负载状态的所需电流以及该芯片执行该指令集中包含的指令后的电流变化值,以确定该芯片的增量电流。实现了对芯片维持作业的电流的预测,且因为第一回归模型与第二回归模型具备可解释性,提高了预测电流作业的可靠性及可控性。
-
公开(公告)号:CN116186330B
公开(公告)日:2023-07-11
申请号:CN202310442154.5
申请日:2023-04-23
Applicant: 之江实验室
IPC: G06F16/783 , G06V10/80
Abstract: 本说明书公开了一种基于多模态学习的视频去重方法及装置,可以获取视频存储请求,而后,可以根据视频存储请求,确定待检测视频,以及确定数据库中的目标视频,进而,将待检测视频、待检测视频的文本相关信息输入到预先训练的识别模型中的第一特征提取网络,提取待检测视频的视觉‑文本多模态特征,将目标视频和目标视频的文本相关信息输入识别模型的第二特征提取网络,提取目标视频的视觉‑文本多模态特征。将待检测视频的视觉‑文本多模态特征以及目标视频的视觉‑文本多模态特征输入到识别模型中的重复检测子网络,得到重复检测结果,并根据该重复检测结果,确定是否将待检测视频存储在数据库中,从而能够提高视频去重的准确性。
-
公开(公告)号:CN116402165A
公开(公告)日:2023-07-07
申请号:CN202310669720.6
申请日:2023-06-07
Applicant: 之江实验室
Abstract: 本说明书公开了一种算子检测的方法、装置、存储介质以及电子设备,本说明书提供的算子检测方法可以获取待检测算子,将校验数据输入到该待检测算子中,得到该待检测算子输出的第一结果,以及将该校验数据输入到确定出的与待检测算子对应的至少一个参考算子中,得到经过至少一个参考算子对校验数据进行数据处理后所得到的第二结果,最后,根据第一结果以及所述第二结果,对待检测算子进行检测,本方法通过确定出和待检测算子功能相符的参考算子,并通过相同的校验数据分别输入到待检测算子和参考算子,从而通过将得出的结果进行对比,可以对待检测算子进行检测,提高了深度学习模型中算子的功能准确性。
-
公开(公告)号:CN116185307B
公开(公告)日:2023-07-04
申请号:CN202310448220.X
申请日:2023-04-24
Applicant: 之江实验室
Abstract: 本说明书公开了一种模型数据的存储方法、装置、存储介质及电子设备。所述模型数据的存储方法包括:接收模型数据的存储请求并获取模型数据,确定所述模型数据的属性信息,根据所述属性信息,确定所述模型数据对应的存储位置,若所述存储位置位于所述AI加速器的本地存储单元,则确定与所述属性信息相匹配的压缩方式,作为目标压缩方式,通过所述目标压缩方式对所述模型数据进行压缩,并将压缩后的模型数据存储在所述本地存储单元中的所述存储位置,以及若所述存储位置位于所述AI加速器的远端存储单元,则将所述模型数据存储在所述远端存储单元中的所述存储位置。
-
公开(公告)号:CN116304720A
公开(公告)日:2023-06-23
申请号:CN202310564363.7
申请日:2023-05-18
Applicant: 之江实验室
IPC: G06F18/214 , G06N20/00
Abstract: 本说明书公开了一种代价模型训练的方法、装置、存储介质及电子设备。本方法使用各算子的特征以及各硬件平台的特征构造训练样本,并针对每个算子,将该算子的运行代码在各硬件平台上的实际运行时间作为该算子对应的训练样本的标注。将训练样本输入代价模型的特征提取层,通过各硬件平台对应的门控网络层的加权矩阵,确定训练样本对应各硬件平台的预测运行时间,根据预测运行时间与实际运行时间之间的差异训练代价模型。通过将各硬件平台的特征加入训练样本、在代价模型中增加针对各硬件平台的门控网络以及针对各硬件平台的输出层等创新的方式,训练得到适用于多个硬件平台的代价模型。
-
公开(公告)号:CN115774800B
公开(公告)日:2023-06-20
申请号:CN202310095896.5
申请日:2023-02-10
Applicant: 之江实验室
IPC: G06F16/901 , G06F16/903 , G06F16/2455 , G06F16/245 , G06F16/2453 , G06F16/22 , G06F9/50
Abstract: 本发明公开了一种基于NUMA架构的时变图处理方法、电子设备、介质,所述方法将顶点在不同快照上的若干副本组织成顶点组,并设计基于顶点组的时变图数据结构;采用时变图分割方法将顶点组分配存储至不同NUMA节点;再进行时变图处理,包括:依次对每个NUMA节点进行聚合计算,在每轮聚合计算的过程中,每个NUMA节点的每个顶点组向下一个NUMA节点发送聚合请求,下一个NUMA节点完成聚合任务后,再向其下一个NUMA节点发送聚合请求,直到所有NUMA节点都完成聚合,其中,每个NUMA节点对应的所有顶点组被并行执行。本发明方法有效减少了远程NUMA节点的随机访问次数,使时变图计算的内存访问效率得到显著提升。
-
-
-
-
-
-
-
-
-