-
公开(公告)号:CN116089577A
公开(公告)日:2023-05-09
申请号:CN202211567262.7
申请日:2022-12-07
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F40/289 , G06F40/35 , G06N20/00
Abstract: 本说明书公开了一种关键词的标注方法、装置、存储介质及电子设备。该关键词的标注方法包括:获取用户的对话语句,并对对话语句进行分词处理,确定对话语句中包含的各分词,针对每个分词,根据该分词在对话语句中出现的频率,确定该分词对应的重要程度,根据每个分词对应的重要程度,选择预设数量的分词,作为候选词,将确定出的各候选词组输入预先训练的语句生成模型中,以确定每个候选词组对应的重构对话语句,一个候选词组中包含有至少一个候选词,根据各重构对话语句与所述对话语句之间的语义匹配度,确定对话语句中的各关键词,并对各关键词进行标注。
-
公开(公告)号:CN115859975B
公开(公告)日:2023-05-09
申请号:CN202310104834.6
申请日:2023-02-07
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/289 , G10L15/02 , G10L15/26
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,其中,该方法包括:获取目标数据对应的第一分词结果,所述目标数据为人机交互过程中生成的数据;基于所述第一分词结果中每个分词包括的多个字符,确定所述每个分词对应的信息值,所述分词对应的信息值用于表征所述每个分词包括的多个字符之间的关联强度;基于所述每个分词对应的信息值和所述分词之间的音标关联关系,对所述第一分词结果进行修正处理,得到第二分词结果;基于所述第二分词结果,对所述目标数据进行风险检测处理。
-
公开(公告)号:CN115994252A
公开(公告)日:2023-04-21
申请号:CN202310099699.0
申请日:2023-01-31
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/906 , G06F18/22 , G06F18/214 , G06F18/241 , G06N20/00
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,其中,该方法包括:获取新增标签、所述新增标签对应的第二样本、第一标签以及与所述第一标签对应的第一样本,并基于所述第二样本和所述第一样本,确定所述新增标签与所述第一标签之间的相似度;获取所述第一标签对应的第一权重;基于所述相似度和所述第一标签对应的第一权重,确定所述新增标签对应的第二权重,并基于所述第一权重和所述第二权重,对所述训练后的标签预测模型中全连接层的权重进行更新,得到待训练的标签预测模型;对所述待训练的标签预测模型进行训练,得到更新后的标签预测模型。
-
公开(公告)号:CN115599891B
公开(公告)日:2023-03-21
申请号:CN202211508333.6
申请日:2022-11-29
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/33 , G06F16/332 , G06F40/30 , G06F18/23 , G06N20/00
Abstract: 本说明书公开了一种确定异常对话数据方法、装置、设备及可读存储介质,基于历史对话数据以及预先训练的第一语义识别模型,训练第二语义识别模型,当接收到携带待检测对话数据的检测请求时,将待检测对话数据分别输入到第一语义识别模型以及第二语义识别模型中,通过确定待检测对话数据的第一语义与第二语义之间的差异,确定该待检测对话数据是否为异常数据,以便第一用户对异常数据进行处理。可见,即使面对海量的待检测对话数据,也可以实现自动从各待检测对话数据中筛选出异常数据,节约人力的同时,还能够提高异常数据识别的效率,从而提高智能对话系统的可靠性,以及增强对隐私信息的安全性。
-
公开(公告)号:CN115759070A
公开(公告)日:2023-03-07
申请号:CN202211400814.5
申请日:2022-11-09
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/284 , G06F40/247 , G06N20/00
Abstract: 本说明书公开了一种意图识别的方法、装置、存储介质及电子设备。对通过意图识别模型识别出目标意图的目标文本进行分词,针对分词后的每个词语,将该词语从目标文本中删除,得到更新文本,并通过该意图识别模型,确定该词语对应的第一识别结果,根据目标意图和第一识别结果确定该词语的对识别出目标意图的贡献度,在所述若干词语中确定停用词及候选词,根据停用词的贡献度及候选词的贡献度,从候选词中确定识别出目标意图的关键词并进行展示。通过确定停用词的贡献度及候选词的贡献度,从候选词中确定对识别出目标意图起关键作用的候选词,作为关键词,在输出目标意图及关键词,可为模型输出结果提供解释依据,提高了模型输出结果的可信度。
-
公开(公告)号:CN115019786A
公开(公告)日:2022-09-06
申请号:CN202210561117.1
申请日:2022-05-23
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了模糊音识别模型的训练方法和装置以及语音含义的理解方法及装置。该训练方法包括:得到包括多个字符的具有语义的样本文本;对样本文本中的每一个字符,获取该字符的拼音;根据样本文本中的每一个字符的拼音,得到每一个字符对应的模糊音;利用样本文本、该样本文本中每一个字符对应的模糊音以及该样本文本的标签,训练所述模糊音识别模型。本说明书实施例能够更加准确地理解语音的含义。
-
公开(公告)号:CN114637833B
公开(公告)日:2024-11-26
申请号:CN202210296215.7
申请日:2022-03-24
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/33 , G06F16/583 , G06V10/80 , G06V10/774 , G06T11/60
Abstract: 本说明书实施例公开了一种人机交互方法、装置及设备,该方法包括:获取预先训练的对话模型针对目标用户的输入信息而输出的回复信息,如果预先建立的表情图像与表情主题信息的对应关系中存在与所述回复信息相匹配的第一表情主题信息,则获取所述第一表情主题信息对应的表情图像,所述对应关系中的表情主体信息是通过预先训练的多模态预训练模型对表情图像和所述表情图像中包含的字符信息进行识别得到,所述多模态预训练模型是通过包含表情图像的训练图像和所述训练图像中包含的字符信息进行模型训练得到,可以将所述第一表情主题信息对应的表情图像作为对所述输入信息的回复提供给所述目标用户。
-
公开(公告)号:CN114880472B
公开(公告)日:2024-08-06
申请号:CN202210461027.5
申请日:2022-04-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35 , G06F16/33 , G06F40/30 , G06F40/211 , G06F18/241 , G06F18/214
Abstract: 本说明书实施例提供了一种数据处理方法、装置及设备,所述方法包括:获取目标用户对目标话术的反馈信息,并获取所述目标话术对应的目标关键词,所述目标话术用于在与所述目标用户的交互过程中,获取所述目标用户针对目标业务的反馈信息;基于所述目标话术、所述目标关键词、所述反馈信息以及预先训练的分类模型,确定所述反馈信息对应的意图类型,所述预先训练的分类模型用于根据所述目标关键词、所述目标话术、所述反馈信息,以及预先学习的句式知识,确定所述反馈信息对应的意图类型;基于所述目标话术和所述反馈信息对应的意图类型,确定所述目标业务是否存在风险。
-
公开(公告)号:CN115658891A
公开(公告)日:2023-01-31
申请号:CN202211274605.0
申请日:2022-10-18
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35 , G06F16/332 , G06F40/284 , G06F40/30 , G06F40/247
Abstract: 本说明书公开了一种意图识别的方法、装置、存储介质及电子设备。该意图识别的方法包括:将获取到的待识别语句输入预先训练的意图识别模型中,以通过意图识别模型,对待识别语句中包含的专有词进行提取,以及,确定待识别语句对应的基础语义信息,确定符合该基础语义信息对应语意下的专有词类型,并在提取到的各专有词中,确定属于该专有词类型的专有词,作为目标专有词,进而根据目标专有词,对待识别语句进行意图识别。
-
公开(公告)号:CN115269809B
公开(公告)日:2022-12-30
申请号:CN202211135890.8
申请日:2022-09-19
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , A63F13/87
Abstract: 本说明书实施例描述了意图识别模型的训练方法和装置及意图识别方法和装置。根据实施例的方法,可以在模型训练的前几轮弱化对特定问题的训练,然后利用前几轮训练的意图识别模型可以找出需要进行区分的回答所对应的意图。进一步通过对这些意图的标签进行重置后再训练意图识别模型,能够使得训练得到的意图识别模型对特定问题的回答也具有较好的识别效果,从而达到提高意图识别准确性的目的。
-
-
-
-
-
-
-
-
-