-
公开(公告)号:CN113988225B
公开(公告)日:2022-05-06
申请号:CN202111597741.9
申请日:2021-12-24
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了一种建立表征提取模型、表征提取、类型识别的方法和装置。根据该实施例的方法,首先获取包含一个以上样本对的第一训练数据,样本对包括正样本对和负样本对;然后利用第一训练数据训练第一表征提取模型和第二表征提取模型,其中第一表征提取模型用以利用用户的终端侧特征提取用户的终端侧表征向量,第二表征提取模型用以利用用户的服务器侧特征提取用户的服务器侧表征向量;训练目标为最大化正样本对的终端侧表征向量与服务器侧表征向量之间的相似度且最小化负样本对的终端侧表征向量与服务器侧表征向量之间的相似度;再将训练得到的第一表征提取模型部署于终端设备。
-
公开(公告)号:CN113256300A
公开(公告)日:2021-08-13
申请号:CN202110582927.0
申请日:2021-05-27
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供了一种交易的处理方法及装置,该方法包括:接收第一用户的交易请求;其中,该交易请求指示第一用户与第二用户进行交易;获取与上述交易请求相关联的历史记录数据;根据该历史记录数据,采用机器学习模型预测上述交易是否为可信交易;其中,该交易被判定为可信交易的条件包括该交易不存在囤号风险;其中,上述历史记录数据包括以下数据中的至少一种:第一用户的历史点击行为序列数据、第一用户的交易关系数据、第二用户的交易关系数据,以及第一用户与第二用户之间的历史交易数据。
-
公开(公告)号:CN113222141A
公开(公告)日:2021-08-06
申请号:CN202110521834.7
申请日:2021-05-13
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种模型的监督训练方法、装置及设备,该方法包括:获取用于训练预设模型的样本数据,并对所述样本数据进行特征提取,得到每个所述样本数据对应的特征向量;使用预设的字典学习算法,并基于每个所述样本数据对应的特征向量、预设的字典矩阵和待确定的每个所述样本数据对应的类别构建的优化目标,对每个所述样本数据进行分类,得到每个所述样本数据对应的类别,所述字典矩阵由预设的用于构建样本数据类别的多个基向量构建;基于每个所述样本数据对应的特征向量和每个所述样本数据对应的类别对所述预设模型进行监督训练。
-
公开(公告)号:CN112989785A
公开(公告)日:2021-06-18
申请号:CN202110457512.0
申请日:2021-04-27
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/194 , G06F40/211 , G06K9/62
Abstract: 本说明书实施例提供了文本向量的获取方法和装置及文本相似度的计算方法和装置。该向量获取方法包括:得到待处理的文本;针对预先设置的至少两种要素中的每一种要素,识别出待处理的文本中属于该要素的字符;利用识别出的属于每一种要素的字符,得到对应于该种要素的向量;将得到的对应于各个要素的各个向量作为所述文本的向量。
-
公开(公告)号:CN111339278A
公开(公告)日:2020-06-26
申请号:CN202010130638.2
申请日:2020-02-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/33 , G06F40/126 , G06F40/30
Abstract: 本说明书实施例提供一种训练话术生成模型、生成应答话术的方法和装置。训练话术生成模型的方法包括:针对用户与人工客服的第一历史对话,得到第一意图关键词对应的第一应答话术;将第一意图关键词以字为单位按照各字的位置关系输入待训练的话术生成模型,话术生成模型包括编码器和解码器,编码器根据位置关系以及第一意图关键词中的各字对第一意图关键词进行编码,得到第一意图关键词对应的第一语义向量,并将第一语义向量输入到解码器进行多次迭代解码,得到话术预测结果;根据第一应答话术和话术预测结果,对话术生成模型进行训练。能够在给定用户意图下生成应答话术,极大减轻了运营人员的工作量,提升运营效率。
-
公开(公告)号:CN111241263A
公开(公告)日:2020-06-05
申请号:CN202010334292.8
申请日:2020-04-24
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F16/35 , G06F40/211
Abstract: 本说明书实施例提出了一种文本生成方法、装置和电子设备,其中,上述文本生成方法中,获取当前对话中的对话上文和预先设定的用户意图,以及获取已生成的输出文本之后,将对话上文、用户意图和输出文本进行拼接,获得输入文本;然后对输入文本进行编码获得输入向量,通过单向注意力模型对上述输入向量进行自注意力计算,获得上述输入向量对应的上下文向量,根据上述上下文向量,获得输出文本候选集合中的每个输出文本作为下一个输出文本的概率,最后根据上述概率从上述输出文本候选集合中选择下一个输出文本,循环执行上述步骤,直至下一个输出文本为结束符,或者已生成的输出文本的长度达到预定的长度,这样最终获得的所有输出文本组成对话下文。
-
-
-
-
-