-
公开(公告)号:CN112085615B
公开(公告)日:2024-10-11
申请号:CN202011009910.8
申请日:2020-09-23
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种图神经网络的训练方法,包括:获取关系网络图,其中各个对象节点对应采样概率集,包括针对其每个一阶邻居节点的采样概率;基于该关系网络图,对该图神经网络进行多轮迭代更新,其中任一轮包括:以本轮选取的第一标签节点为中心,进行M阶邻居节点采样,其中任意的第i阶邻居节点采样包括,针对已采样的第i‑1阶邻居节点中任意的第一节点,基于其当前采样概率集,从其一阶邻居节点全集中采样若干邻居节点归入第i阶邻居节点;基于采样到的M阶以内的邻居节点和该第一标签节点带有的第一业务标签,对该图神经网络进行本轮更新;利用更新后图神经网络确定若干邻居节点对应的若干训练反馈,进而更新第一节点的当前采样概率集。
-
公开(公告)号:CN118378099A
公开(公告)日:2024-07-23
申请号:CN202410612144.6
申请日:2024-05-16
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种针对自然语言处理模型的数据召回方法及装置,针对待通过自然语言模型处理的第一信息,可以对其进行数据召回的预处理,以将召回的文本与第一信息一起经由自然语言处理模型进行处理,得到相应业务处理结果。在数据召回过程中,可以先从数据库中检索与第一信息相匹配的若干文本作为候选文本,然后利用预先训练的效用模型对各个候选文本进行有效性评估,以得到各个候选文本分别对应的各个效用分数,再针对各个候选文本,分别基于相应相似度和效用分数的融合得到相应的融合分数,并根据各个融合分数从候选文本中筛选出目标文本作为召回数据。如此,可以有效节约计算成本。
-
公开(公告)号:CN118153773A
公开(公告)日:2024-06-07
申请号:CN202410417578.0
申请日:2024-04-08
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种时间序列预测方法及装置,在进行时序预测过程中,考虑细时间粒度中的时序数据长度较大的情形,为了充分利用细时间粒度下的时序数据,通过按时间周期分割将长序列转换成短序列,并对短序列进行切片、提取单个短序列的切片编码、提取各个短时序中的对应时间区间的切片表征,进而通过拼接、形状重塑、融合等处理,进行分时间周期的长时序预测。这种实施方式可以减少参数量,提高对长时序数据处理的有效性。
-
公开(公告)号:CN114756720B
公开(公告)日:2022-10-04
申请号:CN202210662745.9
申请日:2022-06-13
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/901 , G06N3/04 , G06N3/08
Abstract: 本公开披露了一种时序数据的预测方法和装置。所述方法包括:获取图数据,所述图数据包括目标节点的时序数据以及所述目标节点的邻居节点的时序数据;将所述目标节点的时序数据输入时序编码器,得到所述目标节点的节点特征;将所述目标节点的时序数据和所述邻居节点的时序数据输入空间编码器,得到所述邻居节点的节点特征,所述邻居节点的节点特征为所述邻居节点的时序数据中的与所述目标节点的时序数据相关的特征;将所述目标节点的节点特征和所述邻居节点的节点特征融合,得到融合后的特征;根据所述融合后的特征,确定所述目标节点的时序数据的预测结果。
-
公开(公告)号:CN112581191B
公开(公告)日:2022-07-19
申请号:CN202011626281.3
申请日:2020-08-14
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q30/02 , G06K9/62 , G06N3/04 , G06N3/08 , G06V10/764 , G06V10/762 , G06V10/80 , G06V10/82
Abstract: 本说明书实施例提供一种行为预测模型的训练方法,包括:针对目标对象,获取基于多个种子用户形成的多个正样本,其中任意的第一正样本包括,与第一种子用户对应的第一用户特征和正例标签,此标签指示对应用户是被确定为对目标对象做出特定行为的用户;基于多个种子用户各自的用户特征,采用无监督的离群点检测算法,确定第一种子用户的离群分数,作为针对行为预测任务的第一训练权重;利用包括上述多个正样本以及预先获取的多个负样本,对第一行为预测模型进行第一训练,具体包括:将第一用户特征输入第一行为预测模型中,结合得到的行为预测结果和上述正例标签,确定行为预测损失,并利用第一训练权重对其进行加权处理,以训练第一行为预测模型。
-
公开(公告)号:CN114638549A
公开(公告)日:2022-06-17
申请号:CN202210500282.6
申请日:2022-05-10
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本公开提出了一种基于大规模整数规划的资源分配方法和系统。该方法包括:接收资源分配任务并将该资源分配任务转换成大规模整数规划问题;设定该资源分配任务的总目标;基于该总目标圈定待分配客户群;将该大规模整数规划问题随机均匀分割成多个子问题;对分割后的子问题进行求解以获得每个子问题的资源预分配模式;基于每个子问题的资源预分配模式进行资源预分配;对该资源预分配进行评估以确定该总目标的完成度,并且如果该总目标的完成度符合预期,则根据该资源预分配模式向该待分配客户群分配资源。
-
公开(公告)号:CN113822371A
公开(公告)日:2021-12-21
申请号:CN202111163343.6
申请日:2021-09-30
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了训练分组模型,以及对时序数据进行分组的方法。训练分组模型的方法包括以下步骤:获取时序样本集,其中任意样本包括,单个业务对象在n个时段的n个指标值构成的序列。将上述样本输入分组模型,得到该样本分属于K个分组的预测概率分布。此外,还将该样本分别输入与K个分组对应的K个解码网络,得到K个重构样本。于是,可以根据样本集中各个样本的预测概率分布与预设的先验分布,确定总分布损失;并根据各个样本分别对应的K个重构样本,以及预测概率分布,确定总重构损失。然后根据总分布损失和总重构损失,训练分组模型和K个解码网络。在训练之后,可以利用训练好的分组模型,对微观时序样本进行分组。
-
公开(公告)号:CN111681059B
公开(公告)日:2020-11-13
申请号:CN202010819192.4
申请日:2020-08-14
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种行为预测模型的训练方法,包括:先确定针对目标对象的多个样本用户,其中任一的第一样本用户对应第一样本硬标签,指示是否对该目标对象做出特定行为;再基于利用训练后的图神经网络对用户‑对象二部图进行图嵌入处理而确定的嵌入向量集,确定对应于第一样本用户的样本用户特征向量以及对应于目标对象的目标对象特征向量,进而确定第一样本用户对目标对象做出特定行为的特定行为概率,作为第一样本软标签,并且,将该样本用户特征向量输入第一行为预测模型中,得到行为预测结果;利用基于该预测结果和第一样本硬标签确定的第一损失项,以及基于该预测结果和第一样本软标签确定的第二损失项,训练该第一行为预测模型。
-
公开(公告)号:CN119202393A
公开(公告)日:2024-12-27
申请号:CN202411371727.0
申请日:2024-09-27
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/9535 , G06F18/23213 , G06F18/25 , G06F18/22 , G06F21/62 , G06N3/0455 , G06N3/08 , G06N5/04
Abstract: 本说明书实施例提供了一种基于大模型的推送模型训练方法、信息推送方法及装置。为了使得工业推送系统受益于大模型的知识,可以首先从全量用户中采样种子用户,基于种子用户从大模型中提取高质量、可重用的推送知识,并加入推理池。在对推送模型进行训练时,通过向量检索将推理池中的推送知识扩展到整个用户群,并将检索到的推送知识作为补充信息与第一用户样本的嵌入向量进行融合,得到第一用户样本的融合表征,利用该增强后的融合表征对推送模型进行更新。在推送模型经过这样的训练之后可以将其应用于工业场景中进行信息推送。方法执行过程中会使用到用户的历史行为数据,这些数据属于隐私数据,在数据处理过程中需要进行隐私保护。
-
公开(公告)号:CN118379114A
公开(公告)日:2024-07-23
申请号:CN202410621838.6
申请日:2024-05-17
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q30/0601 , G06N3/042 , G06N3/08 , G06N5/022
Abstract: 本说明书实施例提供一种图神经网络的训练及商品推送的技术方案,在进行商品推送过程中引入知识图谱,而为了训练用于处理知识图谱的图神经网络,引入用户意图、商品原型,以及用户意图和商品原型之间的决策路径。如此,基于经由用户意图优化的用户表征、经由商品原型优化的商品表征、决策路径数量、偏好预测的损失共同确定预测损失,如此训练的图神经网络可以携带用户意图和路径决策信息,从而更准确地进行信息推送。
-
-
-
-
-
-
-
-
-