保护数据隐私的双方联合训练业务预测模型的方法和装置

    公开(公告)号:CN111177791A

    公开(公告)日:2020-05-19

    申请号:CN202010276682.4

    申请日:2020-04-10

    Abstract: 本说明书实施例提供一种保护数据隐私的双方联合训练业务预测模型的方法和装置,其中第一方和第二方分别拥有一部分特征数据,分别维护第一和第二参数部分,借助于第三方进行联合训练。在模型迭代时,双方各自计算其特征矩阵与参数的乘积结果,第一方将其乘积结果用第三方公钥同态加密后发送给拥有标签的第二方,由第二方进行同态运算,得到加密误差向量。然后,基于该加密误差向量,双方各自通过同态添加混淆元素的方式,将混淆后的加密梯度发送给第三方,使其解密,再对解密后的混淆梯度去混淆,得到对应的梯度,由此更新对应的参数。如此实现保护数据隐私的安全联合训练。

    保护数据隐私的双方联合训练业务预测模型的方法和装置

    公开(公告)号:CN111177768A

    公开(公告)日:2020-05-19

    申请号:CN202010276698.5

    申请日:2020-04-10

    Abstract: 本说明书实施例提供一种保护数据隐私的双方联合训练业务预测模型的方法和装置,其中第一方和第二方分别拥有一部分特征数据,分别维护第一和第二参数部分。在模型迭代时,双方各自计算其特征矩阵与参数的乘积结果,第一方将其乘积结果同态加密后发送给拥有标签的第二方,由第二方进行同态运算,得到加密误差向量。然后,基于该加密误差向量,双方联合通过同态添加混淆元素的方式,传递第二方的梯度,使得第二方更新其第二参数;此外,还通过二次加密的方式,传递第一方的梯度,使得第一方更新其第一参数。如此实现保护数据隐私的安全联合训练。

    可信计算集群的集群密钥获取方法及装置

    公开(公告)号:CN111064569A

    公开(公告)日:2020-04-24

    申请号:CN201911251776.X

    申请日:2019-12-09

    Inventor: 余超凡 王磊

    Abstract: 本说明书实施例提供了一种可信计算集群的集群密钥获取方法及装置。处于可信执行环境TEE中的第一可信计算节点,在获取到针对自身的包含第一服务和标识信息的配置信息,且当标识信息表示第一可信计算节点不是第一个配置第一服务的可信计算节点时,向服务注册发现平台发送针对第一服务的访问请求,服务注册发现平台返回包含第二可信计算节点的地址信息的响应消息,第一可信计算节点利用该地址信息,与第二可信计算节点之间进行远程RA认证,建立RA通道,通过建立的RA通道,从第二可信计算节点中获取集群密钥,作为第一可信计算节点和第二可信计算节点所在的可信计算集群的集群密钥,以便使用集群密钥对隐私数据进行加密存储。

    用于保护隐私的数据处理方法、装置和计算机设备

    公开(公告)号:CN114978484B

    公开(公告)日:2025-04-29

    申请号:CN202210394145.9

    申请日:2022-04-15

    Abstract: 本说明书实施例公开了一种用于保护隐私的数据处理方法、装置和计算机设备。所述方法包括:将隐私数据编码到第一多项式函数的系数中;获取第一多项式函数的多个函数值,作为隐私数据拆分后的多个分片,其中,隐私数据的分片用于采用秘密分享算法进行计算,以获得目标数据分片。本说明书实施例的技术方案,利用第一多项式函数对隐私数据进行了拆分。另外,还可以在本地对多个隐私数据的分片进行计算,得到目标数据的分片,无需借助于第三方,提高了秘密分享算法的计算效率。另外,还利用第二多项式函数恢复了目标数据。

    联合训练复合泊松伽马回归模型的方法及装置

    公开(公告)号:CN118520968A

    公开(公告)日:2024-08-20

    申请号:CN202310173405.4

    申请日:2023-02-17

    Inventor: 刘颖婷 王磊

    Abstract: 本说明书实施例提供一种联合训练复合泊松伽马回归模型的方法及装置,涉及n个参与方。该方法由其中任意的第i个参与方执行,包括:先与其他的n‑1个参与方共同进行针对训练样本集的秘密分享分片,得到第i个特征分片和第i个标签分片;再基于这两个分片,与其他的n‑1个参与方联合进行对应复合泊松伽马回归模型的第i个参数分片的多轮次迭代更新,模型参数分片的迭代更新可以按需选用设计的多种模型优化器之一,例如,适用于小规模数据的安全迭代重加权最小二乘法、适用于大规模数据的安全批次迭代重加权最小二乘法、大小规模数据都适用的安全随机梯度下降法等,如此可以提高执行效率。另外,各种模型优化器涉及的密文运算为秘密分享运算,使得执行更加高效。

    联合更新模型的方法及装置

    公开(公告)号:CN114676838B

    公开(公告)日:2024-07-26

    申请号:CN202210380007.5

    申请日:2022-04-12

    Inventor: 郑龙飞 王磊 王力

    Abstract: 本说明书实施例提供一种联合更新模型的方法及装置,在联邦学习过程中,训练成员上传部分待同步参数,服务方向训练成员下发部分待同步参数的聚合值,从而减少联合训练过程中的数据通信量。其中,针对单个训练成员,基于训练成员上传的待同步参数和服务方确定的聚合值共同选择下发的聚合值,从而充分考虑训练成员的本地数据特点,以及全局数据特点,使得通过联邦学习训练的模型更加符合实际业务需求,提高联邦学习的有效性。

    实现隐私保护的多方协同更新大模型的方法及系统

    公开(公告)号:CN118228304A

    公开(公告)日:2024-06-21

    申请号:CN202410303969.X

    申请日:2024-03-15

    Abstract: 本说明书实施例提供一种实现隐私保护的多方协同更新大模型的方法及系统,在协同更新大模型的方法中,各参与方利用本地样本集,对预训练后具有基础参数集的基础模型进行微调,其中包括,更新参数量远小于基础参数集的参数组。各参与方将更新后参数组的参数组合结果进行加密,并将加密结果提供给服务器。服务器将n个参与方发送的n份加密结果加载到其可信执行环境TEE中,在TEE中,解密n份加密结果,得到n份参数组合结果,以及基于预先部署在TEE中的基础参数集,以及n份参数组合结果,确定n个参与方协同更新的大模型。

    基于隐私保护的联合训练大语言模型的方法、系统及装置

    公开(公告)号:CN118153088A

    公开(公告)日:2024-06-07

    申请号:CN202410072296.1

    申请日:2024-01-17

    Abstract: 本说明书实施例提供一种基于隐私保护的联合训练大语言模型的方法、系统及装置,该大语言模型包括,第一部分网络和第二部分网络,第一部分网络设置于至少两个客户端中各客户端的第一TEE且包括待调整的第一参数;第二部分网络设置于各客户端的第一REE且参数固定;方法包括:客户端分别在第一TEE和第一REE中,通过第一部分网络和第二部分网络处理私有样本,得到预测数据;在第一TEE中,基于预测数据确定各第一参数对应的更新梯度,并对其进行加密,将更新梯度密文发送至服务端;在第一TEE中,从服务端获取其基于至少两个客户端发送的更新梯度密文进行聚合所得的各第一参数对应的聚合梯度;在第一TEE中,基于各第一参数对应的聚合梯度,更新各第一参数。

    一种基于容器部署联邦学习任务的方法及装置

    公开(公告)号:CN113672352B

    公开(公告)日:2024-05-31

    申请号:CN202110968564.4

    申请日:2021-08-23

    Abstract: 本说明书实施例提供了一种基于容器部署联邦学习任务的方法及装置。该方法通过容器管理平台向多个业务方设备部署联邦学习任务,并且,联邦学习任务通过多个业务方设备执行。在该方法中,容器管理平台在接收到针对联邦学习任务的任务描述文件时,可以基于该任务描述文件,分别生成针对多个业务方设备的第一容器组描述文件,并将生成的多个第一容器组描述文件分别发送至对应的业务方设备。多个业务方设备基于各自接收的第一容器组描述文件创建容器组,并利用创建的容器组执行联邦学习任务。

    保护隐私的模型预测方法和装置
    50.
    发明公开

    公开(公告)号:CN117763606A

    公开(公告)日:2024-03-26

    申请号:CN202311754924.6

    申请日:2023-12-18

    Abstract: 本说明书实施例提供了一种保护隐私的模型预测方法和装置。该方法的一具体实施方式包括:根据精度配置信息,将目标模型各部分的模型参数从浮点数转化为对应精度的定点数;其中,所述目标模型的不同部分对应不同的精度;采用秘密分享对定点数的模型参数进行拆分,得到多个模型参数分片;将所述多个模型参数分片分别提供给多方安全计算MPC系统中的多个计算方,以供所述多个计算方基于所述模型参数分片和数据提供方提供的待预测数据的数据分片进行多方联合计算,得到所述待预测数据的预测结果。

Patent Agency Ranking