基于迁移学习实现的私有数据保护建模方法、系统及装置

    公开(公告)号:CN111062056B

    公开(公告)日:2022-03-15

    申请号:CN201911284099.1

    申请日:2019-12-13

    Inventor: 方文静 王力

    Abstract: 本说明书实施例公开了一种基于迁移学习实现的私有数据保护的建模方法、系统及装置。所述方法可以由一个或多个处理器执行,其包括:可以从中间存储设备处获取中间模型,所述中间模型基于第一数据域中的第一数据集获得,并存储于中间存储设备中,所述第一数据集包括文本数据、语音数据、或图像数据。可以基于所述第二数据域中的第二数据集,更新所述中间模型以获取目标模型。所述第二数据域与所述第一数据域是相互隔离的,所述第二数据集所包含的数据类型与所述第一数据集相对应。本说明书所披露的方法,可以在多方安全计算时保护各方私有数据的安全。

    一种基于秘密分享的排序方法和系统

    公开(公告)号:CN114172648A

    公开(公告)日:2022-03-11

    申请号:CN202210126038.8

    申请日:2022-02-10

    Inventor: 方文静 王力

    Abstract: 本说明书实施例公开了一种基于秘密分享的排序方法和系统。该方法应用于第一参与方,第一参与方持有主键序列的第一分片和待排序序列的第一分片,该方法包括:基于主键序列的第一分片与第二参与方协同,通过秘密分享排列协议,获取主键乱序序列的第一分片。基于待排序序列的第一分片与第二参与方协同,通过秘密分享排列协议,获取待排序乱序序列的第一分片。基于主键乱序序列的第一分片与第二参与方协同,通过秘密分享比较协议,获取主键乱序序列的排序序列;排序序列能够将主键乱序序列进行升序或降序排序。基于排序序列对待排序乱序序列的第一分片进行排序处理,获得目标序列的第一分片,目标序列等于待排序序列按主键序列升序或降序排列的结果。

    一种基于秘密分享的多键分组信息获取方法和系统

    公开(公告)号:CN114153854A

    公开(公告)日:2022-03-08

    申请号:CN202210120960.6

    申请日:2022-02-09

    Inventor: 方文静 王力

    Abstract: 本说明书实施例公开了一种基于秘密分享的多键分组信息获取方法和系统。其中,多个对象的多个信息项对应的数据列垂直分布于多方,各数据列的元素已基于作为排序键的至少两个信息项排列。所述方法由所述多方中的一方执行,其包括:获得排序键对应的数据列的分片;针对每一排序键,基于该排序键对应的数据列的分片与其他方进行秘密分享运算,以获得该排序键对应的分组标记列的分片,其中,分组标记列的元素指示该排序键对应的数据列中元素的分组信息;基于各排序键对应的分组标记列的分片与其他方进行秘密分享运算,得到多键分组标记列的分片,其中,所述多键分组标记列的元素指示各排序键对应的数据列中元素基于各排序键的联合分组信息。

    一种针对决策树的分布式预测方法和系统

    公开(公告)号:CN111784078A

    公开(公告)日:2020-10-16

    申请号:CN202010723469.3

    申请日:2020-07-24

    Inventor: 方文静 王力 周俊

    Abstract: 本说明书实施例公开了一种针对决策树的分布式预测方法和系统,可保护各方数据隐私。各方预测模型具有相同结构。任一参与方根据预测对象在己方预测模型上的预测路径,获得己方的标志向量,该标志向量指示预测对象沿该预测路径抵达的叶节点。当预测至本地分裂节点时,基于与该本地分裂节点关联的特征值继续预测;当预测至非本地分裂节点时,继续预测至该非本地分裂节点下的所有子节点。该参与方将己方的标志向量拆分成N个分片,将该N个分片分配给N个参与方,并根据多方安全计算协议与其他N-1个参与方交互,以基于分配到的N个参与方的标志向量的分片计算等效标志向量的分片,等效标志向量为N个参与方的标志向量按位相乘的结果。

    基于密文的两方秘密分享方法、装置、设备及存储介质

    公开(公告)号:CN111740815A

    公开(公告)日:2020-10-02

    申请号:CN202010757514.7

    申请日:2020-07-31

    Inventor: 方文静 王力 周俊

    Abstract: 本说明书提出基于密文的两方秘密分享方法、装置、设备及存储介质,本方持有通过对方公钥加密的第一秘密信息密文,包括:生成第一秘密信息的第一秘密分片;采用对方公钥对生成的第一秘密分片进行同态加密,得到第一秘密分片密文;基于第一秘密分片密文、第一秘密信息密文,确定从第一秘密信息密文拆分出的第二秘密分片密文;将拆分出的第二秘密分片密文发送给对方,以使对方对该第二秘密分片密文进行解密,得到第一秘密信息的第二秘密分片。采用本申请提供的方法不仅可以实现基于密文的两方秘密分享,而且在秘密分享的过程中双方均不知道对方的秘密信息分片的明文,从而保护了各方的隐私。

    基于树模型的两方联合分类方法、装置、设备及介质

    公开(公告)号:CN111639367A

    公开(公告)日:2020-09-08

    申请号:CN202010759206.8

    申请日:2020-07-31

    Inventor: 方文静 王力 周俊

    Abstract: 本说明书提出一种基于树模型的两方联合分类方法、装置、设备及介质,包括:将本方持有的目标对象的特征输入本方的部分树模型,预测得到与所述目标对象匹配的若干第一疑似叶节点;根据所述若干第一疑似叶节点和对方预测得到的若干第二疑似叶节点,确定为所述目标对象预测得到的目标叶节点;基于本方确定出的所述目标叶节点的本方权值分片的密文、以及对方发送的该目标叶节点的对方权值分片的密文,确定目标叶节点对应的分类权值;其中,所述本方权值分片的密文由本方采用本方公钥对该目标叶节点的本方权值分片进行同态加密得到;根据所述目标叶节点和所述分类权值确定所述目标对象的分类结果。

    基于迁移学习实现的私有数据保护建模方法、系统及装置

    公开(公告)号:CN111062056A

    公开(公告)日:2020-04-24

    申请号:CN201911284099.1

    申请日:2019-12-13

    Inventor: 方文静 王力

    Abstract: 本说明书实施例公开了一种基于迁移学习实现的私有数据保护的建模方法、系统及装置。所述方法可以由一个或多个处理器执行,其包括:可以从中间存储设备处获取中间模型,所述中间模型基于第一数据域中的第一数据集获得,并存储于中间存储设备中,所述第一数据集包括文本数据、语音数据、或图像数据。可以基于所述第二数据域中的第二数据集,更新所述中间模型以获取目标模型。所述第二数据域与所述第一数据域是相互隔离的,所述第二数据集所包含的数据类型与所述第一数据集相对应。本说明书所披露的方法,可以在多方安全计算时保护各方私有数据的安全。

    大模型处理的方法和装置
    29.
    发明公开

    公开(公告)号:CN117787356A

    公开(公告)日:2024-03-29

    申请号:CN202311749001.1

    申请日:2023-12-18

    Abstract: 本说明书实施例提供了一种大模型处理的方法和装置。该方法的一具体实施方式包括:确定第一大模型中各层的量化用参数,其中至少部分层的量化用参数根据该层涉及的目标数据的取值范围确定,所述量化用参数包括定点数的总位数和小数部分的位数;根据所述量化用参数对所述第一大模型进行模型量化,以及对所述第一大模型中的至少部分非线性函数进行多项式近似,得到第二大模型;以所述第一大模型为教师模型,所述第二大模型为学生模型,进行模型蒸馏,得到第三大模型;所述第三大模型用于部署到多方,以多方安全计算的方式进行隐私保护的模型预测。

    多方联合进行蒸馏训练的方法及装置

    公开(公告)号:CN117436508A

    公开(公告)日:2024-01-23

    申请号:CN202311297269.6

    申请日:2023-10-08

    Abstract: 本说明书实施例提供了的多方联合进行蒸馏训练的方法及装置,该方法的一具体实施方式包括:获取上一轮更新后的学生模型针对验证集的标签预测损失对应的标签梯度;利用该学生模型,针对该训练集得到第一预测输出;根据目标方上的教师模型针对训练集的第二预测输出、该第一预测输出以及历史训练信息,确定目标方在第t轮的第一信息,目标方为任意第一方;根据该梯度和目标方在第t轮的第一信息,确定目标方在第t轮的贡献参数。当在保护隐私的多方联合蒸馏训练中评估教师模型的提供方的贡献时,仅需进行常规的蒸馏训练,无需进行额外的蒸馏训练,评估教师模型贡献度的计算成本得到极大降低。

Patent Agency Ranking