-
公开(公告)号:CN111447082B
公开(公告)日:2022-09-02
申请号:CN202010146808.6
申请日:2020-03-05
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 刘佳
Abstract: 本说明书提供了关联账号的确定方法、装置和关联数据对象的确定方法。在一个实施例中,上述关联账号的确定方法通过先建立包含了目标账号和可能为目标账号的关联账号的待定账号的目标群组;再确定出目标群组中各个账号的特征向量;进一步利用事先训练好的包含有self‑attention层的预设的处理模型根据上述目标群组中账号的特征向量,确定出针对该目标群组的自相似矩阵;进而可以根据自相似矩阵中表征群组中不同账号之间的关联关系的相似度参数,较为高效地从待定账号中确定出与目标账号紧密相关的关联账号,从而提高了搜寻、确定关联账号的效率。
-
公开(公告)号:CN114092097A
公开(公告)日:2022-02-25
申请号:CN202111396497.X
申请日:2021-11-23
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书一个或多个实施例涉及数据处理技术领域,尤其涉及一种风险识别模型的训练方法、交易风险确定方法及装置。该方法包括:获取训练样本,训练样本包括第一交易的意愿标签、风险标签以及多个特征;将多个特征输入风险识别模型进行预测处理,预测处理包括,在特征处理网络,对多个特征进行特征交叉处理,得到表征向量;在第一识别层,基于对表征向量的第一处理结果,确定第一交易的意愿度;在第二识别层,基于对表征向量的第二处理结果,确定第一交易的风险度;在预测损失减小的方向,更新风险识别模型的参数,其中预测损失包括第一损失和第二损失,第一损失基于意愿度和意愿标签确定,第二损失基于风险度和风险标签确定。
-
公开(公告)号:CN111444329B
公开(公告)日:2020-10-09
申请号:CN202010533383.4
申请日:2020-06-12
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F40/30 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本说明书提出了一种智能对话方法、装置和电子设备,其中,上述方法包括:获取当前用户的提问语句,将所述提问语句输入至多个预置问答模型,得到对应的多条回答语句,其中,所述预置问答模型用于根据所述提问语句生成对应的回答语句;分别将每条所述回答语句和与所述当前用户对应的历史对话语句进行组合,得到对应的多个对话语句序列;将所述对话语句序列输入至预置输出模型进行计算,得到每个所述对话语句序列对应的置信度,根据所述置信度获得最终的回答语句。通过上述方法可以实现智能的对话,由此可以减少对人工标注数据的依赖,提高对话的效率,提升用户体验。
-
公开(公告)号:CN111444308A
公开(公告)日:2020-07-24
申请号:CN202010535282.0
申请日:2020-06-12
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/31 , G06F16/332 , G06F40/216 , G06F40/30 , G06N20/00
Abstract: 本说明书的实施例公开了一种模拟用户发言的方法和系统,所述方法包括:获取待模拟对话,基于待模拟对话确定检索项,检索项至少包括:待模拟对话任意一轮的用户意图、待模拟对话任意一轮的客服响应策略和待模拟对话的最新客服发言;将检索项和索引库中对应的索引内容分别进行匹配,获取匹配结果;索引库中包含多组索引,多组索引基于多个历史对话上文生成,多组索引中任意一组的索引内容至少包括:历史最新客服发言、历史最新用户发言、历史客服响应策略链路和历史用户意图链路;基于匹配结果,确定多组索引中所述历史最新用户发言的分数;将分数满足预设条件的历史最新用户发言,作为待模拟对话的用户的后续发言。
-
公开(公告)号:CN111428023A
公开(公告)日:2020-07-17
申请号:CN202010224908.6
申请日:2020-03-26
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/335 , G06F16/332 , G06N3/04 , G06N3/08
Abstract: 本说明书实施例提出了一种话术推荐方法、装置和电子设备,其中,上述话术推荐方法中,获取当前对话中用户输入的对话内容之后,根据上述用户输入的对话内容,通过预先训练的话术推荐模型,生成上述对话内容对应的回答话术,然后在上述当前对话中输出上述回答话术。由于上述话术推荐模型是利用用户模拟内容和上述用户模拟内容对应的回答话术组成的对话语料训练获得的,上述用户模拟内容是模拟用户说的内容,对应的回答话术是机器人针对上述用户模拟内容给出的答复。
-
公开(公告)号:CN111414468A
公开(公告)日:2020-07-14
申请号:CN202010221610.X
申请日:2020-03-26
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/335 , G06F16/35 , G06N3/04
Abstract: 本说明书提出了一种话术选择方法、装置和电子设备,其中,上述话术选择方法中,获取当前对话中机器人和用户已输出的对话内容之后,根据上述对话内容,获得句子整体特征,然后对上述句子整体特征进行分类,获得上述句子整体特征对应的策略,并获得上述策略中包括的话术,根据上述对话内容,对上述话术进行评分,最后选择评分高于预定的第一阈值的话术进行输出。
-
公开(公告)号:CN111353028A
公开(公告)日:2020-06-30
申请号:CN202010103625.6
申请日:2020-02-20
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/33 , G06F16/35 , G06Q30/00
Abstract: 本说明书的实施例提供了一种用于确定客服话术簇的方法及装置。在该方法中,从人工客服数据集中来确定候选客服话术集,使用业务话术筛选模型来从候选客服话术集中筛选分别针对不同业务类型的多个业务话术集,进而通过语义模型来从业务话术集中确定至少一个客服话术簇,可以为客服进行业务服务过程中遇到的相同或相似的用户问题提供参考。
-
公开(公告)号:CN111339309A
公开(公告)日:2020-06-26
申请号:CN202010440488.5
申请日:2020-05-22
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35 , G06F16/33 , G06F16/332
Abstract: 本说明书的实施例公开了一种用户意图的语料扩展方法,该方法包括:获取第一服务话术和用户意图,所述用户意图为回答所述第一服务话术的话语所代表的意图;从至少一条第二服务话术中,确定与所述第一服务话术的相似度满足第一预设条件的至少一条第三服务话术,所述第二服务话术为对话记录中的服务话术;确定至少一条候选扩展语料,所述候选扩展语料为所述对话记录中回答所述至少一条第三服务话术的话语;从所述至少一条候选扩展语料中,确定至少一条目标扩展语料,所述目标扩展语料的意图与所述用户意图相同或者相近;将所述至少一条目标扩展语料作为所述用户意图的扩展语料。
-
公开(公告)号:CN111291166A
公开(公告)日:2020-06-16
申请号:CN202010384255.8
申请日:2020-05-09
Applicant: 支付宝(杭州)信息技术有限公司
Inventor: 刘佳
IPC: G06F16/33 , G06F16/332 , G06F16/35 , G06F40/289 , G06F40/30 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本说明书实施例提供一种基于Bert的语言模型的训练方法,该方法中包括:首先,获取历史会话样本,其中包括某次业务会话产生的多条对话语句和对应的类别标签,该类别标签指示通过该某次业务会话是否达到业务目的;接着,基于上述多条对话语句,确定语义符号序列,并将该语义符号序列输入所述语言模型中,得到整体语义向量;然后,将该整体语义向量输入业务会话分类模型中,得到预测分类结果;最后,基于该预测分类结果和上述类别标签,调整上述业务会话分类模型和语言模型的模型参数。如此,通过将判断多轮对话的目的是否达成为训练任务,可以提高训练出的语言模型对多轮对话的语义理解深度和广度。
-
公开(公告)号:CN111177324A
公开(公告)日:2020-05-19
申请号:CN201911421937.5
申请日:2019-12-31
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/33 , G06F16/332 , G06F16/35 , G10L15/22 , G06K9/62
Abstract: 本说明书实施例提供一种基于语音识别结果进行意图分类的方法和装置,方法包括:获取针对目标语音进行自动语音识别后得到的目标文本;从预先建立的汉字到拼音的映射表中,查找所述目标文本包含的各汉字分别对应的拼音;基于所述各汉字分别对应的拼音,形成目标拼音序列;将所述目标文本和所述目标拼音序列作为目标文本语音对,将所述目标文本语音对输入预先训练的文本编码模型,通过所述文本编码模型输出所述目标文本语音对对应的目标编码向量;根据所述目标编码向量,对所述目标语音进行意图分类。能够降低意图分类的错误率。
-
-
-
-
-
-
-
-
-