一种对话推荐方法
    2.
    发明公开

    公开(公告)号:CN117056476A

    公开(公告)日:2023-11-14

    申请号:CN202310928830.X

    申请日:2023-07-26

    Abstract: 本发明公开了一种对话推荐方法,包括以下步骤:1)获取对话历史的话语信息;2)根据对话历史的话语信息获取对话历史的相应的实体与语义表征;3)构建树结构存储对话历史当中的实体信息;4)在将预测的实体加入推理树后,根据预测的实体所在的推理分支和在该分支中提到相关实体的历史语料生成与预测的实体高度相关的语料,作为对话回复推荐。本发明通过构造一个推理树结构来存储对话历史当中的实体信息,维持了语句间的因果联系,基于该推理树对历史信息进行建模,能够更好地判断用户感兴趣的实体,从而达到更好的推荐效果与生成效果。

    一种基于细粒度反馈强化学习的可控文本生成方法

    公开(公告)号:CN118798139A

    公开(公告)日:2024-10-18

    申请号:CN202410929860.7

    申请日:2024-07-11

    Abstract: 本发明公开了一种基于细粒度反馈强化学习的可控文本生成方法,包括以下步骤:1)针对可控文本生成任务,初始化一个文本生成的策略大模型m;初始化一个作为参考模型m_ref的策略模型副本,一个属性记分器s;还初始化了一个数据池D,并准备了一个前缀语料库供探索;2)探索;给定文本生成的前缀x,使用当前策略模型生成后续文本;3)分段与加噪;对D内的奖励分段,将噪声注入到每个奖励中;4)模型学习;5)重复步骤2)至4)使用更新的模型进行探索,直到训练达到最大次数;6)根据前缀,使用学习后的模型生成后续文本,获得最终的生成文本。本发明设计了细粒度的奖励,可以对模型提供更加密集的反馈。

Patent Agency Ranking