用于改进的通用化的基于汉明距离的稳健输出编码

    公开(公告)号:CN111950692A

    公开(公告)日:2020-11-17

    申请号:CN202010373193.0

    申请日:2020-05-06

    Abstract: 计算机实现的方法针对数据集的每个类生成基于汉明码的目标标签,其中,数据集中的目标标签之间的汉明距离被最大化,并且用基于汉明码的目标标签训练卷积神经网络,从而生成经训练的AI模型。数据集的类之间的混淆使用混淆矩阵来确定。数据集的被确定为更易被混淆的类的汉明距离被设置为比数据集的被确定为更不易被混淆的类的汉明距离更高的值。

    用于任意树形拓扑的灵活、快速全归约的方法

    公开(公告)号:CN113518973A

    公开(公告)日:2021-10-19

    申请号:CN202080018167.4

    申请日:2020-03-17

    Abstract: 本公开描述了一种用于跨处理器发送数据以在处理器上组合数据的方法。在一个实施例中,一种方法包括在被配置在包括根和一个或多个叶子的非对称或对称的树形拓扑中的处理器集处接收数据集。基于被连接到父节点的子处理器的数目,将数据集的目标部分分配给处理器集中的处理器。该方法包括从一个或多个叶子开始,在树形拓扑的每个分支中共享相同父节点的子处理器之间发送迭代分配的组合数据,并且增加树形拓扑中的级别,直到到达根。该方法还包括在子处理器之间从一个分支向至少一个其它分支中的子处理器发送组合数据。

    深度学习中的大模型支持

    公开(公告)号:CN113168396A

    公开(公告)日:2021-07-23

    申请号:CN201980069430.X

    申请日:2019-10-30

    Abstract: 提供了促进深度学习中的模型支持的技术。在一个实例中,一种系统包含图形处理单元和中央处理单元存储器。图形处理单元处理数据以训练深度神经网络。中央处理单元存储器存储所述数据的一部分以训练所述深度神经网络。图形处理单元在所述深度神经网络的向前传递过程期间,将来自所述深度神经网络的层集合的层的输入数据,提供给所述中央处理单元存储器,所述向前传递过程从所述层集合中的第一层到所述层集合中的最后一层遍历所述深度神经网络的所述层集合,所述最后一层提供所述深度神经网络的输出集合。

    用于改进的通用化的基于汉明距离的稳健输出编码

    公开(公告)号:CN111950692B

    公开(公告)日:2024-05-28

    申请号:CN202010373193.0

    申请日:2020-05-06

    Abstract: 计算机实现的方法针对数据集的每个类生成基于汉明码的目标标签,其中,数据集中的目标标签之间的汉明距离被最大化,并且用基于汉明码的目标标签训练卷积神经网络,从而生成经训练的AI模型。数据集的类之间的混淆使用混淆矩阵来确定。数据集的被确定为更易被混淆的类的汉明距离被设置为比数据集的被确定为更不易被混淆的类的汉明距离更高的值。

    测量给定AI任务的数据集的相似性的方法

    公开(公告)号:CN111950251A

    公开(公告)日:2020-11-17

    申请号:CN202010408186.X

    申请日:2020-05-14

    Inventor: 赵敏植 F·刘 I·黄

    Abstract: 一种计算机实现的方法,包括:向自动编码器中输入输入样本集,每个输入样本集包括参考数据集的参考输入样本和一个或多个目标数据集的一个或多个目标输入样本,自动编码器使用参考数据集被训练。自动编码器为每个输入样本集生成相应输出集,从而形成一个或多个相应输出集,一个或多个输出集中的每个输出集包括相应输入样本集的参考输出和一个或多个目标输出;以及通过将一个或多个目标输出中的每个目标输出与每个输入样本集的相应目标输入样本进行比较来确定一个或多个目标数据集中的每个目标数据集与参考数据集的相似性。

    基于矩阵因子分解的梯度压缩

    公开(公告)号:CN111753979A

    公开(公告)日:2020-10-09

    申请号:CN202010184626.8

    申请日:2020-03-17

    Abstract: 本申请涉及基于矩阵因子分解的梯度压缩。基于矩阵因子分解的梯度压缩可以应用于全局规约操作以提高效率,包括消除不必要的元数据,同时维持人工智能的深度学习(DL)的训练的准确性。这种压缩可以包括为多个计算节点生成预定矩阵和作为该预定矩阵的维数的数据压缩程度k。每个计算节点可以接收要全局规约的矩阵的对应矩阵,并且可以将每个对应的矩阵因子分解成多个非固定矩阵和预定矩阵。可以将多个非固定矩阵求和以提供优化矩阵,可以将该优化矩阵与预定矩阵相乘以提供结果矩阵。可以将优化矩阵指定为预定矩阵。可以重复这些操作,直到计算节点接收到的所有矩阵都已全局规约。

    去中心化分布式深度学习

    公开(公告)号:CN113168569A

    公开(公告)日:2021-07-23

    申请号:CN201980078317.8

    申请日:2019-11-05

    Abstract: 提供了用于由计算系统中的一个或多个处理器进行去中心化分布式深度学习的不同实施例。一个或多个机器学习模型的异步分布式训练可以通过以下方式来执行:为多个节点中的每个节点生成邻居节点的列表,并且根据权重管理操作来创建用于连续通信的第一线程,以及创建用于每个节点的梯度的连续计算的第二线程。在第一线程和第二线程之间共享一个或多个变量。

    利用增强神经网络的转移学习

    公开(公告)号:CN112446488A

    公开(公告)日:2021-03-05

    申请号:CN202010767581.7

    申请日:2020-08-03

    Abstract: 本申请的各实施例涉及利用增强神经网络的转移学习。选择用于以具有子模型的增强模型配置进行操作的预训练模型。使用与第二域对应的训练数据来训练子模型,而预训练模型被训练以对第一域的数据进行操作。通过将从预训练模型中的层输出的第一特征图与从子模型中的层输出的第二特征图组合,用子模型对预训练模型进行增强以形成增强模型配置。组合形成组合特征图。组合特征图被输入到子模型中的不同层中。

    测量给定AI任务的数据集的相似性的方法

    公开(公告)号:CN111950251B

    公开(公告)日:2024-09-20

    申请号:CN202010408186.X

    申请日:2020-05-14

    Inventor: 赵敏植 F·刘 I·黄

    Abstract: 一种计算机实现的方法,包括:向自动编码器中输入输入样本集,每个输入样本集包括参考数据集的参考输入样本和一个或多个目标数据集的一个或多个目标输入样本,自动编码器使用参考数据集被训练。自动编码器为每个输入样本集生成相应输出集,从而形成一个或多个相应输出集,一个或多个输出集中的每个输出集包括相应输入样本集的参考输出和一个或多个目标输出;以及通过将一个或多个目标输出中的每个目标输出与每个输入样本集的相应目标输入样本进行比较来确定一个或多个目标数据集中的每个目标数据集与参考数据集的相似性。

Patent Agency Ranking