基于分布式训练系统的计算方法和装置

    公开(公告)号:CN114723012B

    公开(公告)日:2024-07-02

    申请号:CN202210390305.2

    申请日:2022-04-14

    Abstract: 本公开提供了一种基于分布式训练系统的计算方法和装置。分布式训练系统包括多个训练成员,多个训练成员包括多种角色,多种角色中的不同角色的训练成员在机器学习模型的训练过程中执行不同的操作,该方法应用于多个训练成员中的第一训练成员,该方法包括:获取多个模型,多个模型分别用于定义与机器学习模型的训练相关的多种计算操作;将多个模型输入至分布式模型,以对分布式模型进行初始化,分布式模型具有第一函数,第一函数用于定义多种角色在训练过程中各自需要执行的计算操作和通信操作;在训练过程中,根据分布式模型,执行第一训练成员的角色对应的计算操作和通信操作。

    基于秘密共享的隐私数据访问方法、装置、设备及系统

    公开(公告)号:CN112148755A

    公开(公告)日:2020-12-29

    申请号:CN202010927160.6

    申请日:2020-09-07

    Abstract: 本说明书提供一种基于秘密共享的隐私数据访问方法、装置、设备及系统,通过将待访问隐私数据的序号进行秘密共享拆分成序号第一份额、序号第二份额分发给保存有隐私数据库份额的第一方和第二方,使得第一方和第二方均无法获知待访问隐私数据的序号。第一方和第二方利用接收到的序号第一份额、序号第二份额对各自保存的数据库第一份额、数据库第二份额中的数据的序号进行打乱。再通过两次不经意传输,使得第一方和第二方分别从对方那获取到访问数据第一份额、访问数据第二份额,基于访问数据第一份额、访问数据第二份额可以获得待访问隐私数据,可以实现第一方和第二方在互相保密的前提下访问隐私数据库中某个元素。

    基于隐私保护更新业务模型的方法、装置及系统

    公开(公告)号:CN112015749A

    公开(公告)日:2020-12-01

    申请号:CN202011159885.1

    申请日:2020-10-27

    Abstract: 本说明书实施例提供一种基于隐私保护更新业务模型的方法,针对联邦学习过程中,各个业务方提供不同结构的图数据(异构图),无法统一建模的问题,提出一种模型参数局部相一致的技术构思,通过模型基的设置,一个模型基包括若干基准参数,各个业务方利用模型基的线性组合构建本地模型参数向量或矩阵,从而构建本地业务模型。在联邦学习过程中,业务方上传本地梯度、服务方更新全局梯度、业务方更新本地模型参数,均以模型基为单元。这种局部更新模型参数的技术方案,有效打破异构图下的联邦学习壁垒,提供全新的联邦学习思路,并可推广至各种业务模型。

    更新业务模型的方法及装置

    公开(公告)号:CN111930968A

    公开(公告)日:2020-11-13

    申请号:CN202011089710.8

    申请日:2020-10-13

    Abstract: 本说明书实施例基于具有隐私保护需求的多方安全计算场景,提供一种更新业务模型的方法和装置,针对用于处理知识图谱的业务数据在训练过程中,模型损失的连续性无法保障的情形,提出对模型损失增加利普希茨连续性的约束项,该约束项可以基于常规模型损失对知识图谱中的图谱参数的梯度,与预设的利普希茨常数的对比确定。通过这种方式,在损失最小化过程中,使得模型损失趋于利普希茨连续。如此,可以在使用模型优化算法过程中,提高模型参数的收敛性,加快收敛速度。进一步地,该方案可以适用于任意用于处理知识图谱的机器学习模型的训练过程,且不局限于单方训练和联邦学习场景。

    基于秘密共享的隐私数据访问方法、装置、设备及系统

    公开(公告)号:CN112148755B

    公开(公告)日:2024-10-18

    申请号:CN202010927160.6

    申请日:2020-09-07

    Abstract: 本说明书提供一种基于秘密共享的隐私数据访问方法、装置、设备及系统,通过将待访问隐私数据的序号进行秘密共享拆分成序号第一份额、序号第二份额分发给保存有隐私数据库份额的第一方和第二方,使得第一方和第二方均无法获知待访问隐私数据的序号。第一方和第二方利用接收到的序号第一份额、序号第二份额对各自保存的数据库第一份额、数据库第二份额中的数据的序号进行打乱。再通过两次不经意传输,使得第一方和第二方分别从对方那获取到访问数据第一份额、访问数据第二份额,基于访问数据第一份额、访问数据第二份额可以获得待访问隐私数据,可以实现第一方和第二方在互相保密的前提下访问隐私数据库中某个元素。

    基于分布式训练系统的计算方法和装置

    公开(公告)号:CN114723012A

    公开(公告)日:2022-07-08

    申请号:CN202210390305.2

    申请日:2022-04-14

    Abstract: 本公开提供了一种基于分布式训练系统的计算方法和装置。分布式训练系统包括多个训练成员,多个训练成员包括多种角色,多种角色中的不同角色的训练成员在机器学习模型的训练过程中执行不同的操作,该方法应用于多个训练成员中的第一训练成员,该方法包括:获取多个模型,多个模型分别用于定义与机器学习模型的训练相关的多种计算操作;将多个模型输入至分布式模型,以对分布式模型进行初始化,分布式模型具有第一函数,第一函数用于定义多种角色在训练过程中各自需要执行的计算操作和通信操作;在训练过程中,根据分布式模型,执行第一训练成员的角色对应的计算操作和通信操作。

    一种链接预测模型的联合训练方法和装置

    公开(公告)号:CN112836868A

    公开(公告)日:2021-05-25

    申请号:CN202110090818.7

    申请日:2021-01-22

    Abstract: 说明书披露一种链接预测模型的联合训练方法和装置。所述方法由多个数据持有方联合训练,各个数据持有方均配置有初始链接预测模型,且均构造有本方知识图谱,应用于任一数据持有方,包括:针对本方知识图谱中的目标实体,基于本方持有的目标实体的本方属性,采用多方安全计算技术联合其他数据持有方持有的目标实体的他方属性,确定目标实体的全局属性;基于全局属性确定目标实体的实体特征;基于实体特征和本方持有的目标实体的连边对本方初始链接预测模型进行训练。采用上述方法可以在保证各个数据持有方隐私的基础上联合训练得到性能更好的链接预测模型。

    基于隐私保护更新业务模型的方法、装置及系统

    公开(公告)号:CN112015749B

    公开(公告)日:2021-02-19

    申请号:CN202011159885.1

    申请日:2020-10-27

    Abstract: 本说明书实施例提供一种基于隐私保护更新业务模型的方法,针对联邦学习过程中,各个业务方提供不同结构的图数据(异构图),无法统一建模的问题,提出一种模型参数局部相一致的技术构思,通过模型基的设置,一个模型基包括若干基准参数,各个业务方利用模型基的线性组合构建本地模型参数向量或矩阵,从而构建本地业务模型。在联邦学习过程中,业务方上传本地梯度、服务方更新全局梯度、业务方更新本地模型参数,均以模型基为单元。这种局部更新模型参数的技术方案,有效打破异构图下的联邦学习壁垒,提供全新的联邦学习思路,并可推广至各种业务模型。

Patent Agency Ranking