基于分布式训练系统的计算方法和装置

    公开(公告)号:CN114723012B

    公开(公告)日:2024-07-02

    申请号:CN202210390305.2

    申请日:2022-04-14

    Abstract: 本公开提供了一种基于分布式训练系统的计算方法和装置。分布式训练系统包括多个训练成员,多个训练成员包括多种角色,多种角色中的不同角色的训练成员在机器学习模型的训练过程中执行不同的操作,该方法应用于多个训练成员中的第一训练成员,该方法包括:获取多个模型,多个模型分别用于定义与机器学习模型的训练相关的多种计算操作;将多个模型输入至分布式模型,以对分布式模型进行初始化,分布式模型具有第一函数,第一函数用于定义多种角色在训练过程中各自需要执行的计算操作和通信操作;在训练过程中,根据分布式模型,执行第一训练成员的角色对应的计算操作和通信操作。

    用于经由多个数据拥有方训练模型的方法、装置及系统

    公开(公告)号:CN114819182B

    公开(公告)日:2024-05-31

    申请号:CN202210397805.9

    申请日:2022-04-15

    Abstract: 本说明书实施例提供了用于经由多个数据拥有方训练模型的方法、装置及系统。在该方法中,各个第二数据拥有方根据第一数据确定出与各个第一数据相交的第二特征数据,执行下述主循环过程,直至满足第一循环结束条件:针对每个训练单元,利用第一训练样本和第二训练样本对参与该训练单元训练的第一模型、第二模型和第三模型进行协同训练,主服务器对各个训练单元的经过训练的第一模型和/或第三模型进行联邦聚合,以得到对应的第一全局模型和/或第三全局模型,在各个第一数据拥有方处和/或各个从服务器处,根据第一全局模型对第一模型进行更新和/或根据第三全局模型对第三模型进行更新。

    联合更新模型的方法、装置及系统

    公开(公告)号:CN114004363B

    公开(公告)日:2024-05-31

    申请号:CN202111256451.8

    申请日:2021-10-27

    Abstract: 本说明书实施例提供一种联合更新模型的方法、装置及系统。通过本说明书实施例提供的方法、装置和系统,基于联合更新模型时的数据复合切分情形,设想将训练成员的数据进行分割,从而构成多个水平切分的子系统,在单个子系统内部,可以包括数据垂直切分的训练成员。这样,数据呈垂直切分的单个子系统通过分布在多个训练成员的训练样本在子系统内部迭代,从而更新待同步参数。而各个子系统之间,可以按照同步条件触发的同步周期进行数据同步。这种方式充分考虑各个训练成员的数据构成,为复杂数据结构下的联合更新模型提供解决方案,有利于扩展联邦学习的应用范围。

    利用差分私有交集进行数据通信的方法和系统

    公开(公告)号:CN116710949A

    公开(公告)日:2023-09-05

    申请号:CN202180087361.2

    申请日:2021-07-02

    Abstract: 利用差分私有数据交集进行数据通信的方法、系统和装置,包括编码在计算机存储介质上的计算机程序。一示例方法包括:基于用于建立差分隐私(DP)数据保护的参数确定多个偏置参数;基于来自客户端设备的客户端数据和来自服务器设备的服务器数据确定数据交集;基于所述客户端数据和所述多个偏置参数更新数据交集;以及将更新后的具有差分隐私数据保护的所述数据交集返回给客户端设备。

    一种多方联合训练中的数据同步方法及装置

    公开(公告)号:CN114861217A

    公开(公告)日:2022-08-05

    申请号:CN202210302973.5

    申请日:2022-03-25

    Abstract: 本说明书实施例提供了一种多方联合训练中的数据同步方法及装置。其中,服务器对参与方设备共有的样本标识进行打乱顺序和采样,并将得到的第一样本标识序列发送至参与方设备,过程中不会泄露参与方的数据隐私。任意一个参与方设备从自身样本中获取按照第一样本标识序列排列的多个样本,并针对得到的训练集中的多个样本,按照既有排列顺序进行分批,得到多个分批样本和对应的分批次序,在需要进行模型联合训练时,确定本次模型训练的训练次序,基于训练次序确定对应的分批次序和分批样本,基于分批样本确定自身模型的输出结果。多个参与方设备基于训练次序和对应的输出结果进行数据交互和数据同步,以对各自的模型进行更新。

    功能包生成和加载方法、装置、电子设备、介质和程序产品

    公开(公告)号:CN114860267A

    公开(公告)日:2022-08-05

    申请号:CN202210399783.X

    申请日:2022-04-15

    Abstract: 本公开的实施例涉及功能包生成和加载方法、装置、电子设备、介质和程序产品。功能包加载方法包括:从功能包库获取目标功能包中的元数据文件,元数据文件指示目标功能包中的至少一个层文件;以及基于元数据文件和与已获取过的层文件有关的信息,从功能包库获取目标功能包中的未被获取过的层文件。功能包生成方法包括:生成用于至少部分地实现预定功能的功能包,功能包包括元数据文件和至少一个层文件,元数据文件指示至少一个层文件,至少一个层文件包括可执行文件。使用本公开的技术方案,可以在加载功能包时减少需要获取的数据量,从而不仅能够节省存储空间,也能够减少加载功能包所需的时间和流量,因此能够提高计算平台用户的用户体验。

    用于经由多个数据拥有方训练模型的方法、装置及系统

    公开(公告)号:CN114819182A

    公开(公告)日:2022-07-29

    申请号:CN202210397805.9

    申请日:2022-04-15

    Abstract: 本说明书实施例提供了用于经由多个数据拥有方训练模型的方法、装置及系统。在该方法中,各个第二数据拥有方根据第一数据确定出与各个第一数据相交的第二特征数据,执行下述主循环过程,直至满足第一循环结束条件:针对每个训练单元,利用第一训练样本和第二训练样本对参与该训练单元训练的第一模型、第二模型和第三模型进行协同训练,主服务器对各个训练单元的经过训练的第一模型和/或第三模型进行联邦聚合,以得到对应的第一全局模型和/或第三全局模型,在各个第一数据拥有方处和/或各个从服务器处,根据第一全局模型对第一模型进行更新和/或根据第三全局模型对第三模型进行更新。

    一种提供隐私保护的多方计算控制方法、装置以及设备

    公开(公告)号:CN114817982A

    公开(公告)日:2022-07-29

    申请号:CN202210394942.7

    申请日:2022-04-15

    Abstract: 本说明书实施例公开了一种提供隐私保护的多方计算控制方法、装置以及设备。方案包括:确定部署有集群系统的中心节点的服务提供方,以及部署有集群系统的工作节点的客户参与方;确定部署于工作节点上的流式计算引擎应用和应用监控服务;根据指定的流处理规则,在中心节点发起集群任务,通过集群任务向流式计算引擎应用发送指令,以指示流式计算引擎应用在其本地获取客户参与方的私有数据,并按照流处理规则对私有数据进行脱敏计算,得到脱敏数据;在中心节点与应用监控服务进行通讯,得到对流式计算引擎应用的计算状态监控数据和脱敏数据;根据计算状态监控数据和脱敏数据,完成客户参与方的多方安全计算,以便服务提供方根据计算结果提供服务。

    同态加密操作方法、装置和电子设备

    公开(公告)号:CN114584284A

    公开(公告)日:2022-06-03

    申请号:CN202210397418.5

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种同态加密操作方法、装置和电子设备,其中,上述同态加密操作方法中,确定对指定的业务数据所要执行的同态加密操作之后,获取上述同态加密操作包含的幂运算的底数参数和指数参数,然后根据上述指数参数,查询上述底数参数对应的幂运算结果缓存表,获取上述幂运算的结果,最后根据上述幂运算的结果,完成同态加密操作,从而可以实现通过幂运算结果缓存表,大大减少幂运算中乘法的计算次数,大幅度减少了幂运算需要的时间,进而可以提升同态加密的性能。

    一种模型训练方法、系统及装置

    公开(公告)号:CN113033823B

    公开(公告)日:2022-05-10

    申请号:CN202110424366.1

    申请日:2021-04-20

    Abstract: 本说明书涉及一种模型训练方法、系统和装置,能够用于数据隐私保护。该方法包括,各训练成员将自身持有的训练样本的特征数据输入至模型的第一部分,得到初始输出矩阵;接收标签预测值,基于训练样本的标签值以及所述标签预测值确定损失函数值;将所述损失函数值传输给所述服务器,以便服务器基于所述损失函数值在模型的第二部分中反向传播梯度,直到获取输出梯度矩阵;基于所述损失函数相对模型的第一部分中各层的输出数据的梯度,继续反向传播梯度,以对模型的第一部分的模型参数进行更新;基于更新后的模型的第一部分进行下一轮迭代更新,或者基于此确定最终模型的第一部分。

Patent Agency Ranking