一种基于联邦学习进行模型参数更新的方法、系统及装置

    公开(公告)号:CN112288100A

    公开(公告)日:2021-01-29

    申请号:CN202011589914.8

    申请日:2020-12-29

    Abstract: 本说明书涉及一种基于联邦学习进行模型参数更新的方法、系统及装置,能够用于数据隐私保护。所述方法由参与方中的任一训练成员实现,所述方法包括对模型参数进行多轮迭代更新,其中一轮迭代更新包括:获取与其他参与方具有相同结构的待训练模型;基于自身持有的训练样本及样本标签进行对所述待训练模型进行训练,获得梯度矩阵;至少基于所述梯度矩阵以及第一超参数计算第一运算值矩阵;基于所述梯度矩阵计算第二运算值矩阵;将所述第一运算值矩阵和第二运算值矩阵上传给所述服务器,以便服务器更新服务器端的待训练模型的模型参数;从所述服务器获取更新后的模型参数以将其作为待训练模型进行下一轮迭代更新,或者基于此确定最终模型。

    信息下发方法、装置、存储介质及服务器

    公开(公告)号:CN115061785B

    公开(公告)日:2025-01-03

    申请号:CN202210396072.7

    申请日:2022-04-15

    Abstract: 本说明书公开了一种信息下发方法、装置、存储介质及服务器,其中方法包括:接收任务转换模块发送的目标任务的第二描述信息,第二描述信息由任务转换模块将接收的目标任务的第一描述信息进行压缩后得到,将第二描述信息发送至任务机构标识对应的任务机构,基于可执行文件信息将可执行文件下载至任务机构中,并启动可执行文件,以使可执行文件基于标签从数据库中获取输入参数。

    请求处理方法以及装置
    13.
    发明授权

    公开(公告)号:CN114827274B

    公开(公告)日:2024-10-15

    申请号:CN202210395983.8

    申请日:2022-04-15

    Abstract: 本说明书提供请求处理方法以及装置,其中所述请求处理方法,应用于请求接收端,包括:接收请求发送端发送的访问请求,解析所述访问请求,获得所述访问请求携带的项目标识;若所述访问请求未携带副本标识,则根据所述项目标识,调用目标副本响应所述访问请求,获得响应报文;在所述响应报文中添加所述目标副本的副本标识,得到目标响应报文;向所述请求发送端反馈所述目标响应报文,所述目标响应报文用于所述请求发送端提取所述目标响应报文中的副本标识添加至所述项目标识对应的访问请求中。本方案可以提高请求处理的可靠度。

    基于联邦学习进行模型参数更新的方法及系统

    公开(公告)号:CN114676849B

    公开(公告)日:2024-09-17

    申请号:CN202210294785.2

    申请日:2022-03-24

    Abstract: 本说明书提供基于联邦学习进行模型参数更新的方法及系统,其中方法由参与方中的任一训练成员设备实现,其中,参与方包括多个训练成员设备以及服务器,方法包括对模型参数进行多轮迭代更新,其中一轮迭代更新包括:获取训练成员设备的当前轮的待训练模型以及服务器当前轮下发的聚合模型;计算待训练模型和聚合模型对应的模型参数之间的相关性系数;从相关性系数中确定第一相关性系数以及第二相关性系数;将待训练模型的、与第一相关性系数对应的模型参数更新为聚合模型的、与第一相关性系数对应的模型参数,并使待训练模型的、与第二相关性系数对应的模型参数维持不变;以及基于训练成员设备自身持有的训练样本,对更新后的待训练模型进行训练。

    任务调度方法、装置和电子设备

    公开(公告)号:CN114721804B

    公开(公告)日:2024-08-13

    申请号:CN202210397549.3

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种任务调度方法、装置和电子设备,其中,上述任务调度方法中,获取MPC训练任务描述文件之后,将MPC训练任务描述文件拆分为子任务描述文件,然后根据上述子任务描述文件,对上述MPC训练任务拆分获得的子任务进行调度,记录调度成功的子任务的信息。最后,根据记录的信息,确定上述MPC训练任务拆分获得的子任务均调度成功之后,将拆分获得的子任务下发给对应的执行机构,从而可以实现将MPC训练任务拆分为多个K8s支持的单方任务来执行,达到运行MPC多方任务的效果,使K8s适用于MPC场景;并且上述方法可以实现将同一个MPC训练任务下的多个子任务一并下发,提高MPC训练任务的执行成功率,避免执行机构的算力浪费。

    任务执行方法、装置和电子设备

    公开(公告)号:CN114721743B

    公开(公告)日:2024-02-13

    申请号:CN202210397497.X

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种任务执行方法、装置和电子设备,其中,上述任务执行方法中,目标代理获取待执行的第一任务的描述文件,然后根据描述文件中携带的第一任务对应的应用程序,启动与上述应用程序对应的应用进程,最后在上述应用进程中执行第一任务,从而可以实现由代理(Agent)执行任务(Pod),并且执行任务时,目标代理只是创建了一个普通进程,无需任何权限,无论目标代理是运行在物理机上,还是运行在容器环境中,目标代理都可以成功启动第一任务,从而使K8s可以适配不同机构的部署环境,屏蔽机构基础设施上的差异。

    一种多方安全计算平台下文件加密存储接入方法和系统

    公开(公告)号:CN115062319A

    公开(公告)日:2022-09-16

    申请号:CN202210395676.X

    申请日:2022-04-15

    Abstract: 本公开的一方面涉及一种多方安全计算平台下文件加密存储接入的方法,包括通过平台侧的框架API拉起用户侧的路径获取模块上的路径获取作业以由所述路径获取模块请求用户侧的文件加密存储模块动态开启对象存储接口,并将所述文件加密存储模块返回的对象存储接口配置参数返回给平台侧的所述框架API;以及通过所述框架API拉起用户侧的训练工作模块上的训练工作并向所述训练工作模块提供所述对象存储接口配置参数以由所述训练工作模块经被开启的所述对象存储接口来进行文件加密存储接入。本公开的其他方面还涉及相应的平台和装置。

    联合训练的方法及装置
    18.
    发明公开

    公开(公告)号:CN114925744A

    公开(公告)日:2022-08-19

    申请号:CN202210391540.1

    申请日:2022-04-14

    Abstract: 本公开披露了一种联合训练的方法及装置。所述联合训练包括多个训练成员,所述多个训练成员用于对神经网络模型进行训练,所述多个训练成员包括第一训练成员和第二训练成员,所述第一训练成员的本地样本数据不包含标签数据,所述第一训练成员的本地模型为所述神经网络模型的前N层,所述第二训练成员的本地样本数据包含标签数据,所述第二训练成员的本地模型为所述神经网络模型,所述方法应用于所述第二训练成员,所述方法包括:从所述第一训练成员接收第一训练结果,所述第一训练结果为所述第一训练成员的本地模型的训练结果;根据所述第二训练成员的本地样本数据和所述第一训练结果,对所述第二训练成员的本地模型进行训练。

    任务执行方法、装置和电子设备

    公开(公告)号:CN114721743A

    公开(公告)日:2022-07-08

    申请号:CN202210397497.X

    申请日:2022-04-15

    Abstract: 本说明书实施例提出了一种任务执行方法、装置和电子设备,其中,上述任务执行方法中,目标代理获取待执行的第一任务的描述文件,然后根据描述文件中携带的第一任务对应的应用程序,启动与上述应用程序对应的应用进程,最后在上述应用进程中执行第一任务,从而可以实现由代理(Agent)执行任务(Pod),并且执行任务时,目标代理只是创建了一个普通进程,无需任何权限,无论目标代理是运行在物理机上,还是运行在容器环境中,目标代理都可以成功启动第一任务,从而使K8s可以适配不同机构的部署环境,屏蔽机构基础设施上的差异。

    基于联邦学习进行模型参数更新的方法及系统

    公开(公告)号:CN114676849A

    公开(公告)日:2022-06-28

    申请号:CN202210294785.2

    申请日:2022-03-24

    Abstract: 本说明书提供基于联邦学习进行模型参数更新的方法及系统,其中方法由参与方中的任一训练成员设备实现,其中,参与方包括多个训练成员设备以及服务器,方法包括对模型参数进行多轮迭代更新,其中一轮迭代更新包括:获取训练成员设备的当前轮的待训练模型以及服务器当前轮下发的聚合模型;计算待训练模型和聚合模型对应的模型参数之间的相关性系数;从相关性系数中确定第一相关性系数以及第二相关性系数;将待训练模型的、与第一相关性系数对应的模型参数更新为聚合模型的、与第一相关性系数对应的模型参数,并使待训练模型的、与第二相关性系数对应的模型参数维持不变;以及基于训练成员设备自身持有的训练样本,对更新后的待训练模型进行训练。

Patent Agency Ranking