提问行为数据的获取方法、装置和服务器

    公开(公告)号:CN111078972B

    公开(公告)日:2023-06-16

    申请号:CN201911199034.7

    申请日:2019-11-29

    Inventor: 张琳 梁忠平

    Abstract: 本说明书提供了提问行为数据的获取方法、装置和服务器。在一个实施例中,提问行为数据的获取方法通过先利用预设的关联标签确定模型根据用户所提的目标问题,确定出与该目标问题的近似程度大于预设的近似程度阈值的多个目标标签;再根据预设的排序规则,排列上述多个目标标签,得到对应目标标签点击序列,进而可以将上述目标标签点击序列作为一种用户提问目标问题时的行为数据。这样可以不需要依赖用户真实地去点击所展示的标签来描述自己想要提问的目标问题,就能高效地获取到具有较高的参考价值的用户提问目标问题时的行为数据。

    一种指代消解文本的生成方法、装置及电子设备

    公开(公告)号:CN111401036B

    公开(公告)日:2020-09-25

    申请号:CN202010467473.8

    申请日:2020-05-28

    Inventor: 梁忠平 温祖杰

    Abstract: 本说明书一个或多个实施例提供一种指代消解文本的生成方法、装置及电子设备;本说明书一个或多个实施例的方案,基于端到端的模式设计指代消解文本生成模型,该指代消解文本生成模型使用编码器‑解码器的结构,将输入的用户的历史对话文本和该用户的当前输入文本进行编码,并基于自注意力机制相应生成史对话文本和当前输入文本包括的各个词的自注意力特征,进一步结合编码器生成的自注意力特征以及解码器生成的自注意力特征,由解码器逐步输出输出词以最终得到对应于当前输入文本的指代消解文本。

    数据编码以及信息推荐方法、装置和设备

    公开(公告)号:CN111506822A

    公开(公告)日:2020-08-07

    申请号:CN202010471060.7

    申请日:2020-05-28

    Abstract: 本申请的提出数据编码以及信息推荐方法、装置和设备。该方法包括:将用于确定注意力权重的状态数据,输入第一神经网络,得到第一编码向量。将用户长期行为数据,以及该长期行为的发生时刻,与该长期行为的上一次长期行为的发生时刻之间的第一间隔时长数据,输入第二神经网络,得到第二编码向量。将用户短期行为数据,以及该短期行为的发生时刻,与该短期行为的上一次短期行为的发生时刻之间的第二间隔时长数据,输入第三神经网络,得到第三编码向量。根据上述第一编码向量,确定注意力权重向量。基于上述注意力权重向量,对上述第二编码向量与上述第三编码向量进行编码。

    奖励数据的确定方法、装置和服务器

    公开(公告)号:CN111046156B

    公开(公告)日:2023-10-13

    申请号:CN201911199043.6

    申请日:2019-11-29

    Inventor: 张琳 梁忠平

    Abstract: 本说明书提供了奖励数据的确定方法、装置和服务器。在一个实施例中,奖励数据的确定方法通过先获取第一样本用户针对当前标签的点击状态数据,以及预设的提问模型根据第一样本用户针对当前标签的点击状态数据所确定出的当前动作策略数据;再通过调用事先训练好的预设的奖励模型根据所述第一样本用户针对当前标签的点击状态数据,以及当前动作策略数据,确定出反馈给预设的提问模型的用于强化学习的奖励数据。从而能够快速、准确地获取用于强化学习的奖励数据。

    通过计算机训练预测模型的方法及装置

    公开(公告)号:CN111191722B

    公开(公告)日:2022-08-09

    申请号:CN201911395996.X

    申请日:2019-12-30

    Abstract: 本说明书实施例提供一种通过计算机训练预测模型的方法和装置,可以将较前周期状态下的预测模型,作为较后周期的预测模型的老师模型,仅需要老师模型的历史概率分布,和样本标签一起为模型参数的调整指引方向。由于每个训练周期中,各个状态下的输入样本都随机抽取,如果当前训练周期当前状态下输入的当前样本有多个,则这多个样本可以携带有历史训练周期中不同状态下的模型参数信息,相当于同时向多个老师模型学习,加快学习效率,提升模型学习效果。同时,存储的数据仅为各个样本在相关历史周期的概率分布,以较低的计算成本和存储成本,达到同时向多个老师模型学习的效果,可以提高模型训练的有效性。

    一种训练神经网络的方法及系统

    公开(公告)号:CN111079574B

    公开(公告)日:2022-08-02

    申请号:CN201911202734.7

    申请日:2019-11-29

    Abstract: 本说明书实施例公开了一种训练神经网络的方法及系统。所述方法包括:将训练数据输入N层神经网络,第K层神经网络输出第一概率分布,第N层神经网络输出第二概率分布;其中,N大于K,N和K为大于0的整数;根据所述第一概率分布与所述第二概率分布,确定第一反馈信号;根据所述第一反馈信号调节1~K层神经网络的参数,使得所述1~K层神经网络学习所述第N层神经网络输出的第二概率分布,得到训练好的K层神经网络。

    一种文本生成方法、装置及电子设备

    公开(公告)号:CN111538831A

    公开(公告)日:2020-08-14

    申请号:CN202010502724.1

    申请日:2020-06-05

    Abstract: 本说明书一个或多个实施例提供一种文本生成方法、装置及电子设备;本说明书一个或多个实施例的方案,设计构建文本生成模型,该文本生成模型包括编码器和解码器,基于编码器-解码器的结构,由编码器对输入文本进行编码,并基于自注意力机制相应生成输入文本包括的各个词的自注意力特征来确定输出词来自输入文本的概率,还结合编码器在当前步生成的自注意力特征以及解码器在前一步生成的自注意力特征,来确定输出词来自词典的概率以及前一步的输出词对于当前步输出词的输出概率的影响,进而由解码器逐步输出输出词以最终得到输出文本。

    一种推荐信息生成方法及装置

    公开(公告)号:CN111104591A

    公开(公告)日:2020-05-05

    申请号:CN201911199008.4

    申请日:2019-11-29

    Inventor: 张琳 梁忠平

    Abstract: 本说明书提供一种推荐信息生成方法及装置,所述方法包括:将信息推荐时,单轮一次生成多个推荐信息,转换为单轮多次生成多个推荐信息,每一次生成一个推荐信息,并且上一次生成的推荐信息与信息推荐关联因子一起作为下一次推荐信息生成的输入信息。通过将单轮一次生成多个推荐信息,转换为单轮多次生成多个推荐信息的方式,使得可以在每一次推荐信息的生成过程中,加入历史推荐信息。

    文本分类模型的训练方法和文本分类方法

    公开(公告)号:CN111241280B

    公开(公告)日:2023-09-05

    申请号:CN202010015197.1

    申请日:2020-01-07

    Abstract: 本说明书实施例提供一种文本分类模型的训练方法和文本分类方法。在一个实施例中,一种文本分类模型的训练方法,包括:获取训练样本集;将训练样本集中文本样本分别输入公有特征提取器和与文本样本关联的私有特征提取器,得到文本样本的第一特征和第二特征;将文本样本的第一特征和第二特征分别输入任务判别器,得到文本样本的第一任务判别结果和第二任务判别结果;基于文本样本的第一特征和第二特征,利用与文本样本关联的私有特征提取器对应的分类器,得到文本样本的分类结果;判断是否满足预设训练停止条件;若不满足,调整文本分类模型的参数,并继续训练调整后的文本分类模型,直至满足预设训练停止条件,得到训练后的文本分类模型。

Patent Agency Ranking