一种推荐信息生成方法及装置

    公开(公告)号:CN111104591B

    公开(公告)日:2023-05-12

    申请号:CN201911199008.4

    申请日:2019-11-29

    Inventor: 张琳 梁忠平

    Abstract: 本说明书提供一种推荐信息生成方法及装置,所述方法包括:将信息推荐时,单轮一次生成多个推荐信息,转换为单轮多次生成多个推荐信息,每一次生成一个推荐信息,并且上一次生成的推荐信息与信息推荐关联因子一起作为下一次推荐信息生成的输入信息。通过将单轮一次生成多个推荐信息,转换为单轮多次生成多个推荐信息的方式,使得可以在每一次推荐信息的生成过程中,加入历史推荐信息。

    神经网络模型的融合训练方法及装置

    公开(公告)号:CN111291886B

    公开(公告)日:2022-02-18

    申请号:CN202010131424.7

    申请日:2020-02-28

    Abstract: 本说明书实施例提供一种神经网络模型的融合训练方法及装置。通过神经网络模型的模型训练过程包括若干训练周期,每个训练周期对应于使用训练样本集中所有样本数据进行模型训练的过程,神经网络模型用于对输入的业务数据进行业务预测。在当前的第一训练周期中,当第一训练周期不是第一个训练周期时,基于第一训练周期之前的训练周期训练结束时得到的神经网络模型对第一样本数据的预测数据的累积,而得到的第一目标预测数据,即根据第一目标预测数据对待训练神经网络模型的训练过程进行调整,更新待训练神经网络模型。

    一种训练方法、文本生成方法、装置及电子设备

    公开(公告)号:CN111738437B

    公开(公告)日:2020-11-20

    申请号:CN202010689980.6

    申请日:2020-07-17

    Inventor: 梁忠平 温祖杰

    Abstract: 本说明书一个或多个实施例提供一种训练方法、文本生成方法、装置及电子设备;训练过程采用Teacher‑Student的训练构架,以教师生成模型和学生生成模型联合训练的方式实现。教师生成模型为一般的文本生成模型,其用于供学生生成模型学习其文本生成方法;学生生成模型则引入用于控制输出文本的最大长度的第一长度控制向量,以及用于控制输出文本的最小长度的第二长度控制向量,通过第一长度控制向量和第二长度控制向量来训练学生生成模型控制输出文本长度的能力;基于强化学习方法,通过回报值来得到教师生成模型和学生生成模型的联合损失并训练学生生成模型以得到输出文本长度可控的生成模型,用于生成本长度可控的输出文本。

    一种确定文本标签的方法和系统

    公开(公告)号:CN111324738B

    公开(公告)日:2020-08-28

    申请号:CN202010409780.0

    申请日:2020-05-15

    Abstract: 本说明书的实施例公开了一种确定文本标签的方法和系统,所述方法包括:获取文本,所述文本对应至少一个候选标签;基于文本和至少一个候选标签中的一个组成文本标签对;将文本标签对输入判断模型,所述判断模型包含至少一个交互模型,判断模型基于交互模型输出的文本标签对中候选标签的交互编码,确定候选标签是否为文本的真实标签;其中,所述交互模型包含第一编码模型,所述第一编码模型基于第一多头注意力机制,得到候选标签的交互编码;其中:文本的编码作为第一多头注意力机制中计算K和V的输入,候选标签的编码作为第一多头注意力机制中计算Q的输入。

    一种训练神经网络的方法及系统

    公开(公告)号:CN111079574A

    公开(公告)日:2020-04-28

    申请号:CN201911202734.7

    申请日:2019-11-29

    Abstract: 本说明书实施例公开了一种训练神经网络的方法及系统。所述方法包括:将训练数据输入N层神经网络,第K层神经网络输出第一概率分布,第N层神经网络输出第二概率分布;其中,N大于K,N和K为大于0的整数;根据所述第一概率分布与所述第二概率分布,确定第一反馈信号;根据所述第一反馈信号调节1~K层神经网络的参数,使得所述1~K层神经网络学习所述第N层神经网络输出的第二概率分布,得到训练好的K层神经网络。

    奖励数据的确定方法、装置和服务器

    公开(公告)号:CN111046156A

    公开(公告)日:2020-04-21

    申请号:CN201911199043.6

    申请日:2019-11-29

    Inventor: 张琳 梁忠平

    Abstract: 本说明书提供了奖励数据的确定方法、装置和服务器。在一个实施例中,奖励数据的确定方法通过先获取第一样本用户针对当前标签的点击状态数据,以及预设的提问模型根据第一样本用户针对当前标签的点击状态数据所确定出的当前动作策略数据;再通过调用事先训练好的预设的奖励模型根据所述第一样本用户针对当前标签的点击状态数据,以及当前动作策略数据,确定出反馈给预设的提问模型的用于强化学习的奖励数据。从而能够快速、准确地获取用于强化学习的奖励数据。

    一种自动扩充智能客服标准问题对的方法和系统

    公开(公告)号:CN110955766A

    公开(公告)日:2020-04-03

    申请号:CN201911210422.0

    申请日:2019-11-29

    Abstract: 本说明书实施例公开了一种自动扩充智能客服标准问题对的方法和系统。所述自动扩充智能客服标准问题对的方法包括:基于人工客服日志数据确定至少一个候选问题,所述人工客服日志数据记录用户问题以及针对所述用户问题人工客服给出的回答;判断标准问题库是否包含所述至少一个候选问题,否则确定所述候选问题为标准问题;所述标准问题库包含至少一个标准问题对;基于所述人工客服日志数据确定所述标准问题的标准回答;将所述标准问题和所述标准回答作为标准问题对,所述标准问题对用于智能客服。

    一种文本分类方法、装置及电子设备

    公开(公告)号:CN111104516B

    公开(公告)日:2023-07-04

    申请号:CN202010084986.0

    申请日:2020-02-10

    Abstract: 本说明书一个或多个实施例提供一种文本分类方法、装置及电子设备,基于BERT模型,所述BERT模型包括:至少两个依次连接的编码器层;所述方法,包括:将待分类文本输入所述BERT模型;采集每个所述编码器层的输出,得到对应于所述待分类文本的至少两个特征表示信息;融合至少两个所述特征表示信息,得到融合后的特征表示信息;融合后的特征表示信息充分利用每一编码器层的输出,且准确反映了文本所蕴含的词法和语法信息;根据所述融合后的特征表示信息,确定所述待分类文本的类型。

Patent Agency Ranking