训练深度神经网络时的利用压缩权重的直接计算

    公开(公告)号:CN114008630A

    公开(公告)日:2022-02-01

    申请号:CN202080029838.7

    申请日:2020-03-30

    Abstract: 包括参数服务器的分布式训练系统被配置为根据聚类算法来压缩权重度量,然后权重矩阵的压缩表示可以被分发给训练工作方。压缩表示可以包括矩心索引矩阵和矩心表,其中矩心索引矩阵的每个元素对应于对应的权重矩阵的元素并且包括对矩心表的索引,并且其中矩心表的每个元素包括矩心值。在另外的示例方面,通过执行聚集缩减相加操作,该聚集缩减相加操作累加与同一矩心值相对应的训练数据矩阵的所有元素以生成部分总和,将每个部分总和乘以其对应矩心值,并且对生成乘积求和,训练工作方可以直接从权重矩阵和训练数据矩阵的压缩表示来计算激活结果。

    用于训练深度神经网络的无损指数和有损尾数权重压缩

    公开(公告)号:CN114341882A

    公开(公告)日:2022-04-12

    申请号:CN202080061568.8

    申请日:2020-06-09

    Abstract: 提供了用于压缩值的系统、方法和装置。可以从存储器中获取多个参数,每个参数包括在模型中的人工神经元或节点之间的关系中使用的浮点数。可以从每个浮点数提取尾数值和指数值以生成尾数值集和指数值集。可以压缩该尾数值集以生成尾数查找表(LUT)和多个尾数LUT索引值。可以对该指数值集进行编码以生成指数LUT和多个指数LUT索引值。可以向一个或多个处理实体提供尾数LUT、尾数LUT索引值、指数LUT和指数LUT索引值,以训练模型。

    人工智能模型的分布式训练中的数据并行性

    公开(公告)号:CN114127740A

    公开(公告)日:2022-03-01

    申请号:CN202080051343.4

    申请日:2020-06-09

    Abstract: 本文中描述了启用大型AI模型在被通信地连接到参数服务器的存储器受限目标设备上的执行的方法、系统、装置和计算机程序产品,该参数服务器存储AI模型的主副本。AI模型可以被分解成较小的部分(例如,层或子层),并且每个部分可以在目标设备上尽可能高效地执行。在AI模型的一部分的执行完成之后,可以在目标设备处下载并执行AI模型的另一部分。为了提高效率,可以将输入样本划分为微批次,并且按顺序执行的多个微批次可以形成迷你批次。可以调节一组微批次或迷你批次的大小以减少通信开销。可以在参数服务器和目标设备处执行多级并行的参数缩减。

Patent Agency Ranking