-
公开(公告)号:CN116821496A
公开(公告)日:2023-09-29
申请号:CN202310780087.8
申请日:2023-06-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/9535 , G06Q30/0601 , G06N3/0464 , G06N3/08
Abstract: 本说明书实施例提供了一种基于图神经网络的推荐方法和装置,图神经网络包括多个网络层,各网络层包括注意力层和图卷积层,该方法的一具体实施方式包括:获取预先构建的关系图;通过图神经网络对关系图进行表征处理,其中在任意当前网络层中:采用注意力层,对第一物品节点及其沿元路径的邻居节点的已有表征向量进行基于注意力的聚合处理,得到第一物品节点在当前网络层的表征向量;在图卷积层,对第一用户节点和其连接的相邻物品节点的已有表征向量进行卷积处理,得到第一用户节点在当前网络层的表征向量;将最后一个网络层输出的第一用户节点和第一物品节点各自的表征向量输入预测网络,得到为第一用户推荐第一物品的推荐度预测结果。
-
公开(公告)号:CN116578400A
公开(公告)日:2023-08-11
申请号:CN202310535445.9
申请日:2023-05-09
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F9/48 , G06F18/214 , G06F18/22 , G06N3/04 , G06N3/08
Abstract: 多任务数据处理方法和装置。一种利用多任务教师模型对多任务学生模型进行训练的方法,多任务教师模型和多任务学生模型均包括共享模型和位于共享模型下游的、用于分别执行多个任务的多个子任务模型,该方法包括:针对每个样本,确定多任务教师模型的共享模型的输出与多任务学生模型的共享模型的输出之间的相似度;利用相似度对蒸馏损失函数进行加权,蒸馏损失函数用于表征多任务教师模型的多个子任务模型各自输出与多任务学生模型的多个子任务模型各自输出之间的差异;根据加权后的所述蒸馏损失函数对所述多任务学生模型的参数进行调整。
-
公开(公告)号:CN116401454A
公开(公告)日:2023-07-07
申请号:CN202310356647.7
申请日:2023-03-31
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/9535 , G06F16/9536 , G06F16/9537 , G06N20/00
Abstract: 本说明书实施例提供交互转化率预测、预测模型训练、对象推荐方法及装置。在进行模型训练时,根据事实未交互空间对象样本集构建反事实未交互空间对象样本集,反事实交互空间样本集中的对象样本与事实未交互空间样本集中的对应对象样本的样本特征相同并且转化率标签互为取反;以及使用事实空间对象样本集,对交互转化率预测模型执行基于多任务的模型训练。所述多任务包括交互率预测任务、交互后转化率预测任务和交互转化率预测任务。交互后转化率预测任务包括事实交互后转化率预测任务和反事实交互后转化率预测任务,以及交互率预测任务和事实交互后转化率预测任务的预测结果被使用来执行交互转化率预测任务。
-
公开(公告)号:CN110909216B
公开(公告)日:2023-06-20
申请号:CN201911228336.2
申请日:2019-12-04
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/903 , G06F21/62
Abstract: 本说明书实施例提供了检测用户属性之间的关联性的方法和装置,用于在S个数据方基于安全计算的业务处理中,针对S个数据方联合提供的m个样本用户,检测p个用户属性之间的关联性。其中,S个数据方本地分别拥有部分用户属性数据作为隐私数据。为了维护各个数据方的隐私数据的安全性,可以由各个数据方拆分计算p个用户属性对应的协方差矩阵,并根据协方差矩阵,分别确定p个用户属性中两两用户属性分别对应的各个相关系数,接着基于各个相关系数,以及上述协方差矩阵,检测p个用户属性相互之间的关联性。与常规技术中直接根据属性值计算各个用户属性的VIF,以确定用户属性的关联关系相比,可以大大减少计算的复杂度,提高安全计算的有效性。
-
公开(公告)号:CN116187411A
公开(公告)日:2023-05-30
申请号:CN202211621862.7
申请日:2022-12-16
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种基于元学习的模型训练方法、推荐方法和装置。所述基于元学习的模型训练方法包括:获取多个第一训练数据,所述第一训练数据包括第一产品数据、第一用户数据和第一标签,所述第一标签用于表示第一产品数据与第一用户数据是否关联;通过分析第一训练数据之间的相似性,构建多个训练任务;根据所述多个训练任务进行元学习,得到元模型;根据第二训练数据训练所述元模型,得到业务模型,所述第二训练数据包括第二产品数据、第二用户数据和第二标签,所述第二标签用于表示第二产品数据与第二用户数据是否关联,所述业务模型用于对产品数据与用户数据相关联的可能性进行预测。本说明书实施例可以提高元学习的效果。
-
公开(公告)号:CN115618235A
公开(公告)日:2023-01-17
申请号:CN202211390418.9
申请日:2022-11-04
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/214 , G06N3/04 , G06N3/08
Abstract: 本说明书实施例提供一种推荐模型的训练方法及装置,模型包括第一图神经网络、N个并行设置的专家网络和若干个推荐任务各自对应的门控网络和预测网络,该方法包括:获取二部图和标签集;利用第一图神经网络处理二部图,得到其中目标用户的第一用户表征和目标对象的第一对象表征;利用各专家网络,并行处理目标用户的用户特征和目标对象的对象特征,得到各专家输出表征;通过组合操作确定各预测网络的输入,使得各预测网络产生对应推荐任务的预测数据;组合操作包括基于对应门控网络的输出,组合各专家输出表征、第一用户表征和第一对象表征;利用各推荐任务对应的预测数据及标签集中各推荐任务对应的标签数据,训练推荐模型。
-
公开(公告)号:CN115190176A
公开(公告)日:2022-10-14
申请号:CN202210778617.0
申请日:2022-06-30
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 公开了一种用于资源分配的方法,包括:获取代理集以及任务集,该代理集用于执行该任务集以实现目标集;将该代理集分割为第一数目的代理子集;将该目标集转换为该第一数目的经转换目标集;在多个分配设备上分布式地并行执行多个分配操作;以及汇总该多个分配操作的结果,以获得将该代理集分配到该任务集的分配结果。还公开了用于资金分配的方法以及相应的系统、装置和介质。
-
公开(公告)号:CN115169583A
公开(公告)日:2022-10-11
申请号:CN202210820927.4
申请日:2022-07-13
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种用户行为预测系统的训练方法及装置,一种用户行为预测方法及装置。其中训练方法包括:获取多个训练样本,其中各个训练样本包括对应用户的用户特征,对应业务对象的对象标识和对象属性数据,以及指示所述用户是否对所述业务对象作出预定行为的行为标签;基于所述对象标识和行为标签,确定所述业务对象的嵌入向量标签;基于所述对象属性数据和嵌入向量标签,训练对象嵌入模型;将所述对象属性数据输入训练好的对象嵌入模型,得到第一预测嵌入向量;基于所述第一预测嵌入向量、用户特征和行为标签,训练第一行为预测模型。由此,训练好的第一行为预测模型和训练好的对象嵌入模型构成训练好的用户行为预测系统。
-
公开(公告)号:CN115169451A
公开(公告)日:2022-10-11
申请号:CN202210758009.3
申请日:2022-06-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供用于经由至少两个第一成员设备和第二成员设备训练业务模型的联邦学习方法,联邦学习装置和联邦学习系统。各个第一成员设备具有本地数据,第二成员设备维护待训练的业务模型。在进行联邦学习时,在各个第一成员设备从第二成员设备接收当前业务模型后,使用本地数据训练所接收的当前业务模型,基于本地训练出的业务模型中的模型参数的参数更新量,确定各个模型参数的参数稳定性,并且将被确定为参数不稳定的模型参数的本地更新值提供给第二成员设备。第二成员设备根据从各个第一成员设备接收的模型参数的本地更新值更新业务模型。
-
公开(公告)号:CN115146786A
公开(公告)日:2022-10-04
申请号:CN202210754624.7
申请日:2022-06-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种联邦学习的实现方法、装置、系统、计算机可读存储介质、电子设备以及计算机程序产品,该方法应用于参与联邦学习任务的中心服务器和客户端。具体地,根据各个客户端的本地模型获取的反映客户端数据分布特征的特征向量,然后通过计算各个客户端对应的特征向量计算相似度,来衡量不同客户端数据分布特征之间的相似度。再根据所计算的相似度对客户端进行分组,以将数据分布特征相似度高的客户端归属于同一客户端集合。进一步地,针对同一客户端集合,将各个客户端的本地模型的模型数据进行聚合处理,得到该客户端集合对应的个性化模型。
-
-
-
-
-
-
-
-
-