联合训练的方法及装置
    1.
    发明授权

    公开(公告)号:CN114925744B

    公开(公告)日:2024-07-02

    申请号:CN202210391540.1

    申请日:2022-04-14

    Abstract: 本公开披露了一种联合训练的方法及装置。所述联合训练包括多个训练成员,所述多个训练成员用于对神经网络模型进行训练,所述多个训练成员包括第一训练成员和第二训练成员,所述第一训练成员的本地样本数据不包含标签数据,所述第一训练成员的本地模型为所述神经网络模型的前N层,所述第二训练成员的本地样本数据包含标签数据,所述第二训练成员的本地模型为所述神经网络模型,所述方法应用于所述第二训练成员,所述方法包括:从所述第一训练成员接收第一训练结果,所述第一训练结果为所述第一训练成员的本地模型的训练结果;根据所述第二训练成员的本地样本数据和所述第一训练结果,对所述第二训练成员的本地模型进行训练。

    调用量的上报方法、装置和电子设备

    公开(公告)号:CN114840875A

    公开(公告)日:2022-08-02

    申请号:CN202210398537.2

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种调用量的上报方法、装置和电子设备,其中,上述调用量的上报方法中,获取调用记录之后,对上述调用记录中的用户请求标识进行处理,获得上述用户请求标识对应的标签字段,然后根据用户请求时刻在当前聚合周期内的调用记录,对标签字段进行频次统计,获得上述标签字段对应的调用频次;以及确定上述标签字段对应的调用时刻为当前聚合周期的开始时刻,最后将调用的模型标识、调用频次和调用时刻上报给云端,从而可以实现对模型请求调用数据的情况进行统计,并通过频次统计、时间聚合的方式,满足调用量监测对上报数据量的限制,以及通过对用户请求标识进行处理,满足用户隐私数据不出域的要求。

    升级应用的方法及装置
    4.
    发明公开

    公开(公告)号:CN114840232A

    公开(公告)日:2022-08-02

    申请号:CN202210392489.6

    申请日:2022-04-15

    Abstract: 本公开披露了一种升级应用方法和装置。所述方法包括:运行第一deployment,所述第一deployment用于管理第一组pod,所述第一组pod中的每个pod运行有旧版本的第一应用的容器;运行第二deployment,所述第二deployment用于管理第二组pod,所述第二组pod中的每个pod运行有新版本的所述第一应用的容器;根据所述第一deployment和所述第二deployment,调整所述第一组pod和所述第二组pod中的pod数量,以将所述第一应用升级到所述新版本或将所述第一应用回滚至所述旧版本。

    任务调度方法、装置和电子设备

    公开(公告)号:CN114721804A

    公开(公告)日:2022-07-08

    申请号:CN202210397549.3

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种任务调度方法、装置和电子设备,其中,上述任务调度方法中,获取MPC训练任务描述文件之后,将MPC训练任务描述文件拆分为子任务描述文件,然后根据上述子任务描述文件,对上述MPC训练任务拆分获得的子任务进行调度,记录调度成功的子任务的信息。最后,根据记录的信息,确定上述MPC训练任务拆分获得的子任务均调度成功之后,将拆分获得的子任务下发给对应的执行机构,从而可以实现将MPC训练任务拆分为多个K8s支持的单方任务来执行,达到运行MPC多方任务的效果,使K8s适用于MPC场景;并且上述方法可以实现将同一个MPC训练任务下的多个子任务一并下发,提高MPC训练任务的执行成功率,避免执行机构的算力浪费。

    联合更新业务模型的方法及装置

    公开(公告)号:CN113052329B

    公开(公告)日:2022-05-27

    申请号:CN202110390904.X

    申请日:2021-04-12

    Abstract: 本说明书实施例提供一种基于隐私保护的联合更新业务模型的方法及装置,其中,在一次迭代过程中,服务方向各个数据方提供全局模型参数,以及各个数据方各自与全局模型参数划分的N个参数组的对应关系,由各个数据方各自利用全局模型参数更新本地业务模型,并基于本地业务数据对更新后的本地业务模型进一步更新,以将新的业务模型中各自所对应参数组的模型参数上传至服务方,进而由服务方依次对接收到的各个参数组进行融合,更新全局模型参数。该过程可以减少数据方与服务方的通信压力,避免造成通信阻塞,有利于提高联邦学习的整体训练效率。

    一种模型训练的方法、系统及装置

    公开(公告)号:CN113379039B

    公开(公告)日:2022-05-17

    申请号:CN202110752427.7

    申请日:2021-07-02

    Abstract: 本说明书涉及一种模型的训练方法、系统及装置,可用于机器学习过程中的隐私数据保护,所述方法由参与方中的任一训练成员实现,包括:基于自身持有的训练样本进行模型训练,获得模型数据列表;从模型数据列表中的一个或多个卷积核对应的子矩阵中选取若干子矩阵,并确定所选子矩阵在模型数据列表中的第一位置信息;从模型数据列表中除卷积核对应的子矩阵以外的元素中选取若干非卷积核元素,并确定反映选取的非卷积核元素在模型数据列表中的第二位置信息;确定包括第一位置信息以及第二位置信息的传输数据列表,并将其上传至服务器;获取服务器下发的模型数据更新列表,并基于模型数据更新列表进行本地模型更新。

    联合更新模型的方法、装置及系统

    公开(公告)号:CN114004363A

    公开(公告)日:2022-02-01

    申请号:CN202111256451.8

    申请日:2021-10-27

    Abstract: 本说明书实施例提供一种联合更新模型的方法、装置及系统。通过本说明书实施例提供的方法、装置和系统,基于联合更新模型时的数据复合切分情形,设想将训练成员的数据进行分割,从而构成多个水平切分的子系统,在单个子系统内部,可以包括数据垂直切分的训练成员。这样,数据呈垂直切分的单个子系统通过分布在多个训练成员的训练样本在子系统内部迭代,从而更新待同步参数。而各个子系统之间,可以按照同步条件触发的同步周期进行数据同步。这种方式充分考虑各个训练成员的数据构成,为复杂数据结构下的联合更新模型提供解决方案,有利于扩展联邦学习的应用范围。

    联合更新模型的方法、装置及系统

    公开(公告)号:CN113887740A

    公开(公告)日:2022-01-04

    申请号:CN202111228436.2

    申请日:2021-10-21

    Abstract: 本说明书实施例提供一种联合更新模型的方法、装置及系统,基于训练成员的数据构成水平切分,且模型在训练成员和服务方切分成两部分的情形,由服务方将服务方切分得到的子模型配置为多个可同步聚合的子模型。这样,在单个训练周期,服务方配置的多个可同步聚合的子模型可以与各个训练成员一一对应,单个训练成员上的子模型和服务方的单个子模型串联相当于联合训练的模型。而服务方在各个子模型中待定参数的梯度或待定参数更新完成后,可以对待定参数的梯度或待定参数进行同步,以聚合为服务方切分得到的子模型。如此,可以大大减少各个训练成员之间计算的相互等待时间,提高联合训练模型的效率。

    基于差分隐私进行特征处理的方法及装置

    公开(公告)号:CN113591133A

    公开(公告)日:2021-11-02

    申请号:CN202111133642.5

    申请日:2021-09-27

    Inventor: 杜健 段普 张本宇

    Abstract: 本说明书实施例提供一种基于差分隐私进行特征处理的方法及装置,所述方法涉及第一方和第二方,其中第一方存储多个样本的第一特征部分,第二方存储该多个样本的二分类标签;所述方法包括:第二方对多个样本对应的多个二分类标签分别进行加密,得到多个加密标签;第一方基于该多个加密标签以及差分隐私噪声,确定多个分箱中每个分箱对应的正样本加密加噪数量和负样本加密加噪数量,其中多个分箱是针对第一特征部分中的任一特征对多个样本进行分箱处理而得到;第二方对该正样本加密加噪数量和负样本加密加噪数量进行解密,得到正样本加噪数量和负样本加噪数量,从而确定出相对应分箱的加噪指标。

Patent Agency Ranking