-
公开(公告)号:CN119990124A
公开(公告)日:2025-05-13
申请号:CN202510089598.4
申请日:2025-01-20
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/289 , G06F18/22 , G06F17/16 , G06N5/04 , G06N3/045
Abstract: 本说明书实施例公开了一种大模型幻觉检测方法、装置、存储介质及电子设备。首先,获取待检测文本,并在待检测文本中插入扰动字符,生成多个扰动文本。然后,将多个扰动文本并行输入目标大模型中,得到各扰动文本在目标大模型每层输出的表征向量,并由每层输出的各表征向量组成对应层的向量集合。进一步地,将各向量集合进行中心化处理,得到与各向量集合对应的一致性值,其中一致性值用于衡量各向量集合中不同表征向量之间的相关性。最后,根据各一致性值计算得到目标大模型在输入扰动下的稳定度得分,并根据稳定度得分判断得到目标大模型的幻觉检测结果。
-
公开(公告)号:CN119760347A
公开(公告)日:2025-04-04
申请号:CN202411830587.9
申请日:2024-12-12
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/20 , G06F18/2433 , G06F18/214 , G06N3/042 , G06N3/0895
Abstract: 本说明书实施例公开了一种动态图表征模型训练、动态图异常检测方法及装置。该训练方法在训练过程中依赖于节点记忆表征进行图对比学习,不需要标签即可高效地训练异常检测模型。基于上述动态图表征模型训练方法训练的动态图表征模型,能够有效地捕获动态图场景中的图结构异常、节点属性异常及时序异常,进而能够以无监督的方式有效解决动态图异常检测问题。本说明书实施例所述的动态图表征模型训练装置、动态图异常检测方法及装置同样具有上述效果。
-
公开(公告)号:CN119026636B
公开(公告)日:2025-02-28
申请号:CN202411514637.2
申请日:2024-10-28
Applicant: 支付宝(杭州)信息技术有限公司 , 清华大学
Abstract: 本说明书实施例公开了一种数据处理方法、装置及设备,该方法包括:获取用于对图神经网络模型进行模型训练的图结构数据,所述图结构数据中包括节点、边和节点特征;根据预先设定的隐私数据遗忘要求,对所述图结构数据中包含的隐私数据进行定位,并根据定位结果确定所述图结构数据中位于所述隐私数据对应的遗忘范围内的目标子图数据;通过与所述隐私数据遗忘要求对应的类型相匹配的对冲规则,调整所述目标子图数据中的数据生成所述目标子图数据对应的对冲子图数据;基于所述目标子图数据和所述对冲子图数据,通过对比学习的方式对所述图神经网络模型进行模型训练,得到训练后的图神经网络模型。
-
公开(公告)号:CN119167287A
公开(公告)日:2024-12-20
申请号:CN202411129996.6
申请日:2024-08-15
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/25 , G06F18/213 , G06F18/241 , G06N3/045 , G06N3/042 , G06N3/0455 , G06N3/08
Abstract: 本说明书实施例公开了一种图数据处理方法、装置、计算机可读存储介质与电子设备,该图数据处理方法可以包括:利用包含图神经网络模型、超图神经网络模型与特征融合模型的目标深度学习模型,对业务实体的关联关系图的第一图数据与该业务实体的关联关系超图的第二图数据进行处理,以通过图神经网络模型根据第一图数据生成该业务实体的第一特征数据,通过超图神经网络模型根据第二图数据生成该业务实体的第二特征数据,以及,通过特征融合模型针对同一业务实体的第一特征数据与第二特征数据进行特征融合处理,从而得到业务实体的目标特征数据。
-
公开(公告)号:CN117725975B
公开(公告)日:2024-12-06
申请号:CN202410177223.9
申请日:2024-02-08
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06N3/08 , G06F11/34 , G06N3/0475 , G06N20/00
Abstract: 本说明书一个或多个实施例公开了一种决策模型的训练方法,包括:获取用户的意图标签,以及用户基于所述意图标签所描述的意图与网页进行交互的交互动作序列;获取用户在执行所述交互动作序列的过程中所交互的网页图像样本;将所述网页图像样本和所述意图标签输入生成模型,得到决策结果;基于所述决策结果和决策标签确定损失函数,来更新所述生成模型的参数,以得到目标决策模型。该方法提供的决策模型能够针对不同的小程序进行自动化决策,以快速生成巡检路径。相应地,本说明书还公开了决策模型的训练装置、小程序巡检方法及装置。
-
公开(公告)号:CN119046174A
公开(公告)日:2024-11-29
申请号:CN202411535888.9
申请日:2024-10-30
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F11/36 , G06F18/20 , G06V10/40 , G06F40/126 , G06N3/0455 , G06N3/08
Abstract: 本说明书公开了一种模型训练以及页面检测方法、装置、介质及设备。获取样本页面图像,样本页面图像对应的导航文本以及标签文本。将样本页面图像与导航文本输入到预设的大语言模型,以使大语言模型根据导航文本,确定输出文本,输出文本中包含有目标控件在页面中所在位置的预测坐标表征。将预测坐标表征输入到待训练的坐标解码器,得到目标控件在页面中所在位置的预测坐标。根据预测坐标与实际页面坐标之间的差异,确定综合损失值,以根据综合损失值,对坐标解码器进行训练。使得训练完成的坐标解码器能够对大语言模型输出的预测坐标表征进行纠正,提高页面检测准确性。
-
公开(公告)号:CN119026636A
公开(公告)日:2024-11-26
申请号:CN202411514637.2
申请日:2024-10-28
Applicant: 支付宝(杭州)信息技术有限公司 , 清华大学
Abstract: 本说明书实施例公开了一种数据处理方法、装置及设备,该方法包括:获取用于对图神经网络模型进行模型训练的图结构数据,所述图结构数据中包括节点、边和节点特征;根据预先设定的隐私数据遗忘要求,对所述图结构数据中包含的隐私数据进行定位,并根据定位结果确定所述图结构数据中位于所述隐私数据对应的遗忘范围内的目标子图数据;通过与所述隐私数据遗忘要求对应的类型相匹配的对冲规则,调整所述目标子图数据中的数据生成所述目标子图数据对应的对冲子图数据;基于所述目标子图数据和所述对冲子图数据,通过对比学习的方式对所述图神经网络模型进行模型训练,得到训练后的图神经网络模型。
-
公开(公告)号:CN118429985A
公开(公告)日:2024-08-02
申请号:CN202410439047.1
申请日:2024-04-12
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06V30/19 , G06V30/18 , G06V30/413
Abstract: 本说明书实施例提供了一种聊天消息检测方法及装置、电子设备、存储介质,其中方法包括:通过提取聊天记录图像中的文本特征和视觉特征,将文本特征和视觉特征融合得到融合特征,进而根据融合特征进行聊天消息检测,得到聊天记录图像中的至少一个聊天消息以及所述聊天消息对应的消息类型。
-
公开(公告)号:CN117951527A
公开(公告)日:2024-04-30
申请号:CN202410194929.6
申请日:2024-02-21
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F18/214 , G06F40/279
Abstract: 本说明书公开了一种模型训练的方法、实体识别的方法、装置及电子设备,具体包括:通过将第一文本数据输入到原始实体识别模型中,得到第一识别结果,根据第一识别结果与第一标注数据进行训练时各模型参数的变化幅度,确定各模型参数的重要程度值,根据各重要程度值对模型参数的学习率进行调整。将第二文本数据输入到原始实体识别模型中得到第二识别结果,以最小化第二识别结果与第二标注数据的偏差为优化目标,按照调整后的学习率进行训练。将训练后的实体识别模型用于对文本数据进行实体识别,根据识别结果执行目标任务。通过本说明书中的方法可有效提高针对实体识别模型的训练效率,使得后续根据识别结果执行目标任务的执行效率也获得了提升。
-
公开(公告)号:CN117455304A
公开(公告)日:2024-01-26
申请号:CN202311527242.1
申请日:2023-11-15
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06Q10/0639 , G06Q10/0635 , G06N5/022 , G06F18/241
Abstract: 本公开提供了一种用于数字生态图谱链路预测的方法,方法包括:基于初始节点信息和初始边信息来构建初始数字生态图谱,该初始数字生态图谱包含不同类型的节点和不同类型的边;将初始数字生态图谱中待预测链路关系的节点对中的各节点的初始节点特征分别送入更新网络以得到各节点的节点更新特征,其中该更新网络采用嵌入边类型表征的邻域聚集来更新各节点的节点特征;以及将该节点对中的各节点的节点更新特征送入分类器以预测该节点对之间是否存在潜在链路。本申请还涉及用于数字生态图谱链路预测的系统、装置和介质。
-
-
-
-
-
-
-
-
-