一种数据处理方法及装置
    2.
    发明公开

    公开(公告)号:CN116627985A

    公开(公告)日:2023-08-22

    申请号:CN202310665077.X

    申请日:2023-06-06

    Abstract: 本说明书实施例提供一种数据处理方法及装置,该方法包括:读取第一节点对应的第一邻居列表,以及对应的第一索引数据,所述第一索引数据包括,根据所述第一邻居列表中各邻居节点的第一属性的值而整理的若干邻居节点的指示数据;基于所述第一索引数据,从所述第一邻居列表,筛选出满足第一过滤表达式的若干第一邻居节点,其中所述第一过滤表达式针对所述第一属性而设置。

    图数据处理方法、装置和计算机设备

    公开(公告)号:CN116431651A

    公开(公告)日:2023-07-14

    申请号:CN202310353646.7

    申请日:2023-03-31

    Abstract: 本说明书实施例公开了一种图数据处理方法、装置和计算机设备。所述方法应用于分布式系统中的第一节点设备,所述第一节点设备与图数据中的目标节点相匹配,所述方法包括:接收目标节点所对应邻居节点的特征信息;利用图模型的中间层,根据邻居节点的特征信息对目标节点的特征信息进行更新;根据目标节点的出边,发送目标节点更新后的特征信息;迭代执行以上步骤,直至满足设定条件;利用图模型的输出层,对更新后的特征信息进行处理,得到目标节点的预测结果。本说明书实施例可以提高图数据的预测效率。

    并行训练业务模型的方法及装置

    公开(公告)号:CN111291869B

    公开(公告)日:2020-11-24

    申请号:CN202010384216.8

    申请日:2020-05-09

    Abstract: 本说明书实施例提供一种并行训练业务模型的方法,在并行训练业务模型的过程中,就参与并行训练的多个设备中的单个设备而言,仅保存一部分模型参数的当前值,在其他设备需要相关模型参数时,实时从该单个设备获取这些参数。在参数调整更新过程中,其他设备将相关模型参数的当前梯度反馈给该单个设备,由该单个设备综合考虑各个当前梯度,对所保存的模型参数进行当前值的调整。由于各个设备分别处理部分模型参数,可以有效缩短计算和通信时间,从而提高模型并行训练效率。

    一种提高涉及稀疏矩阵并行计算效率的方法和系统

    公开(公告)号:CN111240744A

    公开(公告)日:2020-06-05

    申请号:CN202010007900.4

    申请日:2020-01-03

    Abstract: 本说明书实施例公开了一种提高涉及稀疏矩阵并行计算效率的方法及系统。所述方法包括:获取稀疏矩阵,稀疏矩阵由多个非零值和多个非零值对应的多个坐标组成,坐标表示非零值在稀疏矩阵中的位置;坐标包括行坐标,行坐标表示非零值在稀疏矩阵中的行数;基于多个非零值的个数和计算线程的个数将多个非零值划分为多个第一类数据区;遍历多个第一类数据区,将相邻的两个第一类数据区中位于稀疏矩阵同一行的非零值划分到同一个数据区中,生成多个第二类数据区;将多个第二类数据区分配给多个计算线程;多个计算线程并行执行计算任务。

    一种提高涉及稀疏矩阵计算速率的方法和系统

    公开(公告)号:CN111079082A

    公开(公告)日:2020-04-28

    申请号:CN201911330882.7

    申请日:2019-12-20

    Abstract: 本说明书实施例公开了一种提高涉及稀疏矩阵计算速率的方法及系统。所述方法包括:获取稀疏矩阵,所述稀疏矩阵由至少一个非零值和所述至少一个非零值对应的坐标组成,所述坐标表示所述非零值在所述稀疏矩阵中的位置;所述坐标包括行坐标,所述行坐标表示所述非零值在所述稀疏矩阵中的行数;遍历所述稀疏矩阵,基于所述非零值对应的行坐标,生成所述至少一个非零值的至少一个访问索引;其中,所述访问索引表示所述非零值在所述至少一个非零值中被访问的顺序,行坐标相同的所述非零值对应的访问索引相邻;基于所述至少一个访问索引,访问所述至少一个非零值,并基于所述至少一个非零值进行矩阵计算。

    训练图神经网络模型的方法和装置

    公开(公告)号:CN110705709A

    公开(公告)日:2020-01-17

    申请号:CN201910975012.9

    申请日:2019-10-14

    Inventor: 葛志邦 黄鑫 王琳

    Abstract: 本说明书实施例提供一种训练图神经网络模型的方法和装置。方法包括:从样本集中获取目标训练样本,及对应的目标样本标签;目标训练样本对应目标关系网络图中的目标节点,目标节点具有目标节点编号,目标关系网络图包括多个节点以及节点之间的连接边,各节点具有各自对应的节点编号,各连接边具有各自对应的边编号;根据目标节点编号和预设参数,从预先存储的目标关系网络图的图信息中,查询目标关系网络图的目标子图的图信息;目标子图以目标节点为中心节点,且目标子图中的各节点与目标节点之间的跳数小于或等于预设参数;利用目标子图的图信息和目标样本标签,对图神经网络模型进行训练。能够降低对机器的要求,并且提高训练效率。

    并行训练业务模型的方法及装置

    公开(公告)号:CN111291869A

    公开(公告)日:2020-06-16

    申请号:CN202010384216.8

    申请日:2020-05-09

    Abstract: 本说明书实施例提供一种并行训练业务模型的方法,在并行训练业务模型的过程中,就参与并行训练的多个设备中的单个设备而言,仅保存一部分模型参数的当前值,在其他设备需要相关模型参数时,实时从该单个设备获取这些参数。在参数调整更新过程中,其他设备将相关模型参数的当前梯度反馈给该单个设备,由该单个设备综合考虑各个当前梯度,对所保存的模型参数进行当前值的调整。由于各个设备分别处理部分模型参数,可以有效缩短计算和通信时间,从而提高模型并行训练效率。

    分布式计算方法及分布式计算系统

    公开(公告)号:CN111275176A

    公开(公告)日:2020-06-12

    申请号:CN202010123789.5

    申请日:2020-02-27

    Inventor: 黄鑫 宋宪政 王琳

    Abstract: 本说明书提供了一种用于运行分析图结构的深度学习模型的分布式计算方法和系统。所述分布式计算系统中的至少一个计算设备反复迭代执行所述图结构的图嵌入向量更新操作,包括:获取所述图结构中目标节点的目标图嵌入向量;从所述分布式计算系统中的至少一个关联计算设备接收相邻目标图嵌入向量;基于所述目标图嵌入向量和相邻目标图嵌入向量,生成迭代后的目标图嵌入向量;以及将所述迭代后的目标图嵌入向量发送给所述关联计算设备。

Patent Agency Ranking