一种隐私保护的模型训练方法和系统

    公开(公告)号:CN113011587A

    公开(公告)日:2021-06-22

    申请号:CN202110313679.X

    申请日:2021-03-24

    Abstract: 本说明书涉及机器学习领域,特别涉及一种隐私保护的模型训练方法和系统。该方法包括,基于训练样本和模型的第一部分,得到初始输出矩阵;对所述初始输出矩阵添加扰动噪声,并进行稀疏化,得到扰动输出矩阵;将扰动输出矩阵传输给所述服务器,以便服务器利用模型的第二部分处理所述扰动输出矩阵得到模型预测结果;基于标签数据以及所述预测结果确定损失函数值;将损失函数值传输给服务器,接收服务器返回的输出梯度矩阵;基于输出梯度矩阵计算出模型的第一部分中各模型参数对应的梯度信息;基于所述梯度信息更新模型的第一部分的模型参数;进行下一轮迭代更新,或者基于此确定最终模型的第一部分。

    一种提供隐私保护的多方计算控制方法、装置以及设备

    公开(公告)号:CN114817982B

    公开(公告)日:2025-05-09

    申请号:CN202210394942.7

    申请日:2022-04-15

    Abstract: 本说明书实施例公开了一种提供隐私保护的多方计算控制方法、装置以及设备。方案包括:确定部署有集群系统的中心节点的服务提供方,以及部署有集群系统的工作节点的客户参与方;确定部署于工作节点上的流式计算引擎应用和应用监控服务;根据指定的流处理规则,在中心节点发起集群任务,通过集群任务向流式计算引擎应用发送指令,以指示流式计算引擎应用在其本地获取客户参与方的私有数据,并按照流处理规则对私有数据进行脱敏计算,得到脱敏数据;在中心节点与应用监控服务进行通讯,得到对流式计算引擎应用的计算状态监控数据和脱敏数据;根据计算状态监控数据和脱敏数据,完成客户参与方的多方安全计算,以便服务提供方根据计算结果提供服务。

    任务执行方法、装置、中心节点和下游节点设备

    公开(公告)号:CN114741175B

    公开(公告)日:2024-10-18

    申请号:CN202210397550.6

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种任务执行方法、装置、中心节点和下游节点设备,其中,上述任务执行方法中,目标下游节点获取训练任务之后,如果上述训练任务所需的资源配额小于或等于目标下游节点当前可用的资源,则启动上述训练任务,并等待参与训练的其他下游节点启动训练任务,然后,根据参与训练的其他下游节点中训练任务的启动情况,确定执行上述训练任务,从而可以实现下游节点根据自身当前的可用资源启动训练任务,降低了资源调度的复杂性,并且可以充分利用下游节点的运算资源,加快了训练任务的执行速度。

    一种隐私保护的模型训练方法和系统

    公开(公告)号:CN113722760B

    公开(公告)日:2024-10-15

    申请号:CN202111040498.0

    申请日:2021-09-06

    Abstract: 本说明书实施例公开了一种隐私保护的模型训练方法和系统,所述参与方包括多个训练成员以及服务器,训练成员以及服务器具有相同结构的待训练模型,所述方法其中一轮迭代更新包括:利用自身持有的训练样本对待训练模型进行至少一次本地训练,得到模型数据;所述模型数据中的部分元素添加有噪声;至少基于当前迭代轮次确定传输数据比例,并基于所述传输数据比例从所述模型数据中选出部分元素,得到传输数据;将所述传输数据传输给服务器,以便服务器进行模型数据聚合;接收服务器返回的模型数据更新结果,并基于所述模型数据更新结果进行本地模型更新,将更新后的本地模型作为待训练模型进行下一轮迭代更新,或者基于此确定最终模型。

    联合更新模型的方法、装置及系统

    公开(公告)号:CN113887740B

    公开(公告)日:2024-07-16

    申请号:CN202111228436.2

    申请日:2021-10-21

    Abstract: 本说明书实施例提供一种联合更新模型的方法、装置及系统,基于训练成员的数据构成水平切分,且模型在训练成员和服务方切分成两部分的情形,由服务方将服务方切分得到的子模型配置为多个可同步聚合的子模型。这样,在单个训练周期,服务方配置的多个可同步聚合的子模型可以与各个训练成员一一对应,单个训练成员上的子模型和服务方的单个子模型串联相当于联合训练的模型。而服务方在各个子模型中待定参数的梯度或待定参数更新完成后,可以对待定参数的梯度或待定参数进行同步,以聚合为服务方切分得到的子模型。如此,可以大大减少各个训练成员之间计算的相互等待时间,提高联合训练模型的效率。

    任务模型训练方法、装置以及系统

    公开(公告)号:CN114723047B

    公开(公告)日:2024-07-02

    申请号:CN202210397221.1

    申请日:2022-04-15

    Abstract: 本说明书实施例提供任务模型训练方法、装置以及系统,其中任务模型训练方法,应用于训练设备,包括:在接收到服务器发送的第一子任务模型的情况下,先将本地训练样本输入第一子任务模型,得到输出向量;然后根据稀疏矩阵对输出向量进行稀疏化处理,得到隐层特征向量并发送至服务器;接着接收预测结果,基于预测结果与标签信息确定损失值,并基于损失值获取梯度向量;然后根据梯度向量,更新稀疏矩阵,返回执行将本地训练样本输入第一子任务模型的步骤,直至达到训练停止条件。极大降低了任务模型的迭代次数,同时保证了任务模型的收敛性;在保证收敛速度的前提下降低了任务模型的通信量,提高了训练速度。

    联合更新模型的方法、装置及系统

    公开(公告)号:CN113377797B

    公开(公告)日:2023-03-28

    申请号:CN202110753670.0

    申请日:2021-07-02

    Abstract: 本说明书实施例提供一种联合更新模型的方法、装置及系统,用于服务方与k个数据方联合更新模型的过程。其中,各个数据方分别利用本地训练样本更新模型对应的M个待同步参数并选择部分更新值以及当前同步周期使用的本地训练样本数量上传至服务方,服务方根据各个数据方上传的训练样本数量聚合各个待同步参数的更新值,得到各个聚合值构成的同步参数集Wt,并反馈给各个数据方,各个数据方利用同步参数集Wt,更新本地的待定参数,从而更新本地模型。这种实施方式可以提高模型精度,加快收敛速度。

    计算任务执行方法、装置、存储介质及服务器

    公开(公告)号:CN114925378A

    公开(公告)日:2022-08-19

    申请号:CN202210396053.4

    申请日:2022-04-15

    Abstract: 本说明书公开了一种计算任务执行方法、装置、存储介质及服务器,其中方法包括:接收任务中心发送的针对计算任务的初始任务包,所述初始任务包为不包含所述计算任务对应的隐私配置信息的任务包,在本地存储中获取所述计算任务对应的隐私配置信息,将所述隐私配置信息注入至所述初始任务包中,生成目标任务包,执行所述目标任务包。采用本说明书,将计算任务对应的隐私配置信息保存在机构,在机构获取到任务中心发送的初始任务包后,将隐私配置信息注入初始任务包中从而生成目标任务包,在初始任务包下发的过程中,隐私配置信息不会被泄露,可以提高计算任务的安全性。

    基于分布式训练系统的计算方法和装置

    公开(公告)号:CN114723012A

    公开(公告)日:2022-07-08

    申请号:CN202210390305.2

    申请日:2022-04-14

    Abstract: 本公开提供了一种基于分布式训练系统的计算方法和装置。分布式训练系统包括多个训练成员,多个训练成员包括多种角色,多种角色中的不同角色的训练成员在机器学习模型的训练过程中执行不同的操作,该方法应用于多个训练成员中的第一训练成员,该方法包括:获取多个模型,多个模型分别用于定义与机器学习模型的训练相关的多种计算操作;将多个模型输入至分布式模型,以对分布式模型进行初始化,分布式模型具有第一函数,第一函数用于定义多种角色在训练过程中各自需要执行的计算操作和通信操作;在训练过程中,根据分布式模型,执行第一训练成员的角色对应的计算操作和通信操作。

Patent Agency Ranking