针对错误前提的幻觉缓解方法和装置

    公开(公告)号:CN119398181B

    公开(公告)日:2025-04-29

    申请号:CN202510008081.8

    申请日:2025-01-03

    Abstract: 本发明提供一种针对错误前提的幻觉缓解方法和装置,应用于自然语言处理技术领域。该方法包括:获取第一输入文本和第二输入文本,所述第二输入文本为将所述第一输入文本中的错误前提替换为占位符的文本;分别确定大语言模型处理所述第一输入文本时每个注意力头的第一激活值,以及处理所述第二输入文本时每个注意力头的第二激活值;按照目标处理方式确定每个注意力头对大语言模型输出幻觉文本的影响力;基于所述影响力确定目标注意力头,并对所述目标注意力头进行削弱处理。

    文本生成模型评估方法和装置
    22.
    发明公开

    公开(公告)号:CN119692351A

    公开(公告)日:2025-03-25

    申请号:CN202510209039.2

    申请日:2025-02-25

    Abstract: 本发明提供一种文本生成模型评估方法和装置,应用于自然语言处理技术领域。该方法包括:获取测试数据,所述测试数据包括实体属性和实体类别;根据所述测试数据生成多个测试任务,一个测试任务对应多个测试问题;将所述多个测试任务的测试问题分别输入文本生成模型,得到对应的测试结果,并根据所述测试结果确定所述文本生成模型对本体知识的掌握程度;其中,所述多个测试任务包括实体类别‑层级记忆测试、实体类别‑层级应用测试、实体属性记忆测试以及实体属性应用测试。

    基于模式匹配的大型语言模型知识编辑方法及装置

    公开(公告)号:CN119204091A

    公开(公告)日:2024-12-27

    申请号:CN202411294781.X

    申请日:2024-09-14

    Abstract: 本发明提供一种基于模式匹配的大型语言模型知识编辑方法及装置,其中,上述方法包括:获取目标编辑知识,其中,所述目标编辑知识用于对大型语言模型进行知识更新;确定所述大型语言模型中各个层级与所述目标编辑知识之间的多个模式匹配程度;确定所述多个模式匹配程度中的最高模式匹配程度,将所述最高模式匹配程度所对应的层级作为目标编辑层;基于所述目标编辑知识对所述目标编辑层的多层感知机进行秩一编辑,得到编辑后的大型语言模型;通过本发明能够在准确进行知识编辑的同时不影响其他无关数据。

    持续小样本事件检测方法及装置
    24.
    发明公开

    公开(公告)号:CN118606835A

    公开(公告)日:2024-09-06

    申请号:CN202410656752.7

    申请日:2024-05-24

    Abstract: 本申请提供一种持续小样本事件检测方法及装置,涉及自然语言处理技术领域。所述方法包括:基于历史任务的第一记忆集中的代表样本的事件对进行记忆增强,得到第一事件对;基于当前任务的第二记忆集中事件对的类别进行对比增强,得到第二事件对;基于所述第一事件对与所述第二事件对,确定目标模型;通过所述目标模型对当前任务的持续小样本事件进行检测。本申请提供的持续小样本事件检测方法及装置,可以提升持续小样本事件检测任务的性能。

    事件抽取方法、装置、电子设备及存储介质

    公开(公告)号:CN113761875B

    公开(公告)日:2022-12-06

    申请号:CN202110827424.5

    申请日:2021-07-21

    Abstract: 本发明提供一种事件抽取方法、装置、电子设备及存储介质,其中方法包括:获取待抽取文档;将所述待抽取文档输入至事件抽取模型,得到所述事件抽取模型输出的所述待抽取文档对应的预测结果;其中,所述预测结果包括多个预测事件,以及每一预测事件对应的事件元素;所述事件抽取模型用于基于所述待抽取文档中每一语句的上下文特征和事件元素,确定所述待抽取文档中事件之间的关系、角色之间的关系和事件到角色之间的关系,并确定所述预测结果。本发明提供的方法、装置、电子设备及存储介质,能够同时提取多个事件,并实现事件元素的准确分配,减小了事件抽取的误差,提高了事件抽取的准确性。

    文本识别样本获取、文本识别方法及装置

    公开(公告)号:CN113742445B

    公开(公告)日:2022-09-27

    申请号:CN202110807246.X

    申请日:2021-07-16

    Abstract: 本发明提供一种文本识别样本获取、文本识别方法及装置,所述获取方法包括:将初始文本样本输入至样本生成模型,得到样本生成模型输出的多个文本识别样本。由于样本生成模式是基于生成器和识别器进行对偶学习得到的,从而可以得到多个高质量的文本识别样本,且各文本识别样本以不同的语义方式表达两个事件之间的因果关系或非因果关系,进而将高质量的文本识别样本用于文本识别模型训练时,能够提高文本识别模型的识别精度。同时本发明在初始文本样本的基础上得到多个文本识别样本,扩大了样本的数量规模,进而在文本识别样本用于文本识别模型训练时,能够使得文本识别模型能够准确学习文本识别样本中事件的因果语义关系,提高模型的识别精度。

    事件抽取方法、装置、电子设备及存储介质

    公开(公告)号:CN113761875A

    公开(公告)日:2021-12-07

    申请号:CN202110827424.5

    申请日:2021-07-21

    Abstract: 本发明提供一种事件抽取方法、装置、电子设备及存储介质,其中方法包括:获取待抽取文档;将所述待抽取文档输入至事件抽取模型,得到所述事件抽取模型输出的所述待抽取文档对应的预测结果;其中,所述预测结果包括多个预测事件,以及每一预测事件对应的事件元素;所述事件抽取模型用于基于所述待抽取文档中每一语句的上下文特征和事件元素,确定所述待抽取文档中事件之间的关系、角色之间的关系和事件到角色之间的关系,并确定所述预测结果。本发明提供的方法、装置、电子设备及存储介质,能够同时提取多个事件,并实现事件元素的准确分配,减小了事件抽取的误差,提高了事件抽取的准确性。

    文本识别样本获取、文本识别方法及装置

    公开(公告)号:CN113742445A

    公开(公告)日:2021-12-03

    申请号:CN202110807246.X

    申请日:2021-07-16

    Abstract: 本发明提供一种文本识别样本获取、文本识别方法及装置,所述获取方法包括:将初始文本样本输入至样本生成模型,得到样本生成模型输出的多个文本识别样本。由于样本生成模式是基于生成器和识别器进行对偶学习得到的,从而可以得到多个高质量的文本识别样本,且各文本识别样本以不同的语义方式表达两个事件之间的因果关系或非因果关系,进而将高质量的文本识别样本用于文本识别模型训练时,能够提高文本识别模型的识别精度。同时本发明在初始文本样本的基础上得到多个文本识别样本,扩大了样本的数量规模,进而在文本识别样本用于文本识别模型训练时,能够使得文本识别模型能够准确学习文本识别样本中事件的因果语义关系,提高模型的识别精度。

    基于联邦学习的分布式语言关系识别方法、系统和装置

    公开(公告)号:CN112101578B

    公开(公告)日:2021-02-23

    申请号:CN202011285430.4

    申请日:2020-11-17

    Abstract: 本发明属于数据识别领域,具体涉及了一种基于联邦学习的分布式语言关系识别方法、系统和装置,旨在解决多个参与方在不共享数据的基础上难以联合建模的问题。本发明包括:各个本地平台获取待识别数据和带标签的本地训练数据,在根据本地训练数据训练本地分类器模型,用训练好的分类器模型集成为全局分类器模型,再通过全局分类器模型初始化本地分类器模型,用初始化后的本地分类模型识别待识别的数据获得语言关系预测结果。本发明实现了在不共享数据的基础上将本地平台结合其它平台进行数据使用和机器学习建模,提高了自然语言识别模型训练的协作性,解决了数据孤岛的问题,降低各个平台训练模型所需的训练数据总量和要求。

    基于联邦学习的分布式语言关系识别方法、系统和装置

    公开(公告)号:CN112101578A

    公开(公告)日:2020-12-18

    申请号:CN202011285430.4

    申请日:2020-11-17

    Abstract: 本发明属于数据识别领域,具体涉及了一种基于联邦学习的分布式语言关系识别方法、系统和装置,旨在解决多个参与方在不共享数据的基础上难以联合建模的问题。本发明包括:各个本地平台获取待识别数据和带标签的本地训练数据,在根据本地训练数据训练本地分类器模型,用训练好的分类器模型集成为全局分类器模型,再通过全局分类器模型初始化本地分类器模型,用初始化后的本地分类模型识别待识别的数据获得语言关系预测结果。本发明实现了在不共享数据的基础上将本地平台结合其它平台进行数据使用和机器学习建模,提高了自然语言识别模型训练的协作性,解决了数据孤岛的问题,降低各个平台训练模型所需的训练数据总量和要求。

Patent Agency Ranking