-
公开(公告)号:CN111738437A
公开(公告)日:2020-10-02
申请号:CN202010689980.6
申请日:2020-07-17
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06N3/08 , G06N3/04 , G06F16/33 , G06F16/332 , G06F16/34
Abstract: 本说明书一个或多个实施例提供一种训练方法、文本生成方法、装置及电子设备;训练过程采用Teacher-Student的训练构架,以教师生成模型和学生生成模型联合训练的方式实现。教师生成模型为一般的文本生成模型,其用于供学生生成模型学习其文本生成方法;学生生成模型则引入用于控制输出文本的最大长度的第一长度控制向量,以及用于控制输出文本的最小长度的第二长度控制向量,通过第一长度控制向量和第二长度控制向量来训练学生生成模型控制输出文本长度的能力;基于强化学习方法,通过回报值来得到教师生成模型和学生生成模型的联合损失并训练学生生成模型以得到输出文本长度可控的生成模型,用于生成本长度可控的输出文本。
-
公开(公告)号:CN111460126B
公开(公告)日:2020-09-25
申请号:CN202010533197.0
申请日:2020-06-12
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/332 , G06F40/289 , G06F40/30 , G06F40/253 , G06N3/04 , G06N3/08
Abstract: 本说明书一个或多个实施例提供一种用于人机对话系统的回复生成方法、装置及电子设备,通过预先训练的回复生成模型,将用户与机器人的问题和回复输入,通过第一编码器层进行自注意力和局部掩码处理,使模型充分利用问题和回复各自语句内的语义特征,再通过第二编码器层自注意力和全局掩码处理,使得模型充分利用当前以及之前的所有问题和回复的上下文语义特征,并基于第二编码器层的输出来生成对应于用户当前问题的当前回复。
-
公开(公告)号:CN111401036A
公开(公告)日:2020-07-10
申请号:CN202010467473.8
申请日:2020-05-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F40/211 , G06F40/289 , G06N3/08 , G06N3/04
Abstract: 本说明书一个或多个实施例提供一种指代消解文本的生成方法、装置及电子设备;本说明书一个或多个实施例的方案,基于端到端的模式设计指代消解文本生成模型,该指代消解文本生成模型使用编码器-解码器的结构,将输入的用户的历史对话文本和该用户的当前输入文本进行编码,并基于自注意力机制相应生成史对话文本和当前输入文本包括的各个词的自注意力特征,进一步结合编码器生成的自注意力特征以及解码器生成的自注意力特征,由解码器逐步输出输出词以最终得到对应于当前输入文本的指代消解文本。
-
公开(公告)号:CN111291886A
公开(公告)日:2020-06-16
申请号:CN202010131424.7
申请日:2020-02-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06N3/08
Abstract: 本说明书实施例提供一种神经网络模型的融合训练方法及装置。通过神经网络模型的模型训练过程包括若干训练周期,每个训练周期对应于使用训练样本集中所有样本数据进行模型训练的过程,神经网络模型用于对输入的业务数据进行业务预测。在当前的第一训练周期中,当第一训练周期不是第一个训练周期时,基于第一训练周期之前的训练周期训练结束时得到的神经网络模型对第一样本数据的预测数据的累积,而得到的第一目标预测数据,即根据第一目标预测数据对待训练神经网络模型的训练过程进行调整,更新待训练神经网络模型。
-
公开(公告)号:CN111241280A
公开(公告)日:2020-06-05
申请号:CN202010015197.1
申请日:2020-01-07
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35
Abstract: 本说明书实施例提供一种文本分类模型的训练方法和文本分类方法。在一个实施例中,一种文本分类模型的训练方法,包括:获取训练样本集;将训练样本集中文本样本分别输入公有特征提取器和与文本样本关联的私有特征提取器,得到文本样本的第一特征和第二特征;将文本样本的第一特征和第二特征分别输入任务判别器,得到文本样本的第一任务判别结果和第二任务判别结果;基于文本样本的第一特征和第二特征,利用与文本样本关联的私有特征提取器对应的分类器,得到文本样本的分类结果;判断是否满足预设训练停止条件;若不满足,调整文本分类模型的参数,并继续训练调整后的文本分类模型,直至满足预设训练停止条件,得到训练后的文本分类模型。
-
公开(公告)号:CN111191722A
公开(公告)日:2020-05-22
申请号:CN201911395996.X
申请日:2019-12-30
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种通过计算机训练预测模型的方法和装置,可以将较前周期状态下的预测模型,作为较后周期的预测模型的老师模型,仅需要老师模型的历史概率分布,和样本标签一起为模型参数的调整指引方向。由于每个训练周期中,各个状态下的输入样本都随机抽取,如果当前训练周期当前状态下输入的当前样本有多个,则这多个样本可以携带有历史训练周期中不同状态下的模型参数信息,相当于同时向多个老师模型学习,加快学习效率,提升模型学习效果。同时,存储的数据仅为各个样本在相关历史周期的概率分布,以较低的计算成本和存储成本,达到同时向多个老师模型学习的效果,可以提高模型训练的有效性。
-
公开(公告)号:CN111144567A
公开(公告)日:2020-05-12
申请号:CN201911415075.5
申请日:2019-12-31
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例提供一种神经网络模型的训练方法及装置。模型训练过程包括若干子训练过程,一个子训练过程包括预设数量个训练周期。在第N子训练过程的第M训练周期中,当第N子训练过程非首个子训练过程,且第M训练周期非首个训练周期时,基于第N-1子训练过程的最后一个训练周期训练结束时得到的第一目标模型,以及第N子训练过程中的第M-1训练周期训练结束时得到的第二目标模型,对待训练神经网络模型的训练过程进行调整,更新待训练神经网络模型。
-
公开(公告)号:CN111104516A
公开(公告)日:2020-05-05
申请号:CN202010084986.0
申请日:2020-02-10
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/35
Abstract: 本说明书一个或多个实施例提供一种文本分类方法、装置及电子设备,基于BERT模型,所述BERT模型包括:至少两个依次连接的编码器层;所述方法,包括:将待分类文本输入所述BERT模型;采集每个所述编码器层的输出,得到对应于所述待分类文本的至少两个特征表示信息;融合至少两个所述特征表示信息,得到融合后的特征表示信息;融合后的特征表示信息充分利用每一编码器层的输出,且准确反映了文本所蕴含的词法和语法信息;根据所述融合后的特征表示信息,确定所述待分类文本的类型。
-
公开(公告)号:CN110991613A
公开(公告)日:2020-04-10
申请号:CN201911202733.2
申请日:2019-11-29
Applicant: 支付宝(杭州)信息技术有限公司
Abstract: 本说明书实施例公开了一种训练神经网络的方法及系统。所述方法包括:将训练数据输入N+K层神经网络,第N层神经网络输出第一概率分布,第N+K层神经网络输出第二概率分布;其中,N和K为大于0的整数;根据所述第一概率分布与所述训练数据的标签,确定第一反馈信号;根据所述第二概率分布与所述训练数据的标签,确定第二反馈信号;根据所述第一反馈信号调节1~N层神经网络的参数,以及根据所述第二反馈信号调节1~N+K层神经网络的参数,得到训练好的N层神经网络。
-
公开(公告)号:CN111506822B
公开(公告)日:2023-08-18
申请号:CN202010471060.7
申请日:2020-05-28
Applicant: 支付宝(杭州)信息技术有限公司
IPC: G06F16/9535 , G06N3/0442 , G06N3/0464 , G06N3/084
Abstract: 本申请的提出数据编码以及信息推荐方法、装置和设备。该方法包括:将用于确定注意力权重的状态数据,输入第一神经网络,得到第一编码向量。将用户长期行为数据,以及该长期行为的发生时刻,与该长期行为的上一次长期行为的发生时刻之间的第一间隔时长数据,输入第二神经网络,得到第二编码向量。将用户短期行为数据,以及该短期行为的发生时刻,与该短期行为的上一次短期行为的发生时刻之间的第二间隔时长数据,输入第三神经网络,得到第三编码向量。根据上述第一编码向量,确定注意力权重向量。基于上述注意力权重向量,对上述第二编码向量与上述第三编码向量进行编码。
-
-
-
-
-
-
-
-
-