基于外部知识增强的机器阅读理解方法、系统、装置

    公开(公告)号:CN111078836A

    公开(公告)日:2020-04-28

    申请号:CN201911259849.X

    申请日:2019-12-10

    Abstract: 本发明属于自然语言处理技术领域,具体涉及一种基于外部知识增强的机器阅读理解方法、系统、装置,旨在解决现有机器阅读理解方法未利用三元组间的图结构信息,导致答案预测准确率较低的问题。本系统方法包括生成问题及原文文本中各实体的上下文表示;基于外部知识库,获取问题及原文文本中各实体的三元组集合及原文文本中各实体相邻实体的三元组集合;并基于三元组集合,通过外部知识图谱获取各实体的知识子图;通过图注意力网络更新融合知识子图,获取知识表示;通过哨兵机制将上下文表示和知识表示进行拼接,通过多层感知器和softmax分类器获取待回答问题的答案。本发明通过利用三元组之间的图结构信息,提高了答案预测的准确率。

    基于给定事实的问句生成方法及系统

    公开(公告)号:CN111061851A

    公开(公告)日:2020-04-24

    申请号:CN201911276552.4

    申请日:2019-12-12

    Abstract: 本发明涉及一种基于给定事实的问句生成方法及系统所述问句生成方法包括:获取历史参考数据,所述历史参考数据包括多条不同用户的历史输入信息;对各历史输入信息进行扩展,得到对应的上下文表示;根据各所述输入信息及对应的上下文表示,建立问句生成模型;基于所述问句生成模型,根据当前用户的当前输入信息,确定所述当前输入信息对应的问句序列。本发明通过历史参考数据建立问句生成模型;能够基于所述问句生成模型,可根据当前用户给定的少量当前输入信息,即可准确确定所述当前输入信息对应的问句序列。

    一种本体对齐方法及装置
    93.
    发明授权

    公开(公告)号:CN106156082B

    公开(公告)日:2019-09-20

    申请号:CN201510150011.2

    申请日:2015-03-31

    Abstract: 本发明公开了一种本体对齐方法及装置,方法为,结合待对齐本体名称,待对齐本体的属性信息,待对齐本体的类别标签,分别计算待对齐本体与每一个候选本体之间的相似度;根据计算得到的相似度,获取每一个查找到的候选本体的综合评分;从所有综合评分中选取综合评分大于或等于预设综合评分阈值,且综合评分最高的候选本体;将待对齐本体与选取的候选本体进行对齐。采用本发明技术方案,在对本体进行对齐的过程中,除考虑本体名称之外,还综合考虑本体的属性信息和类别标签,避免了仅根据本体名称进行本体对齐所造成的对齐结果不准确的问题,保证了本体对齐的准确性,降低了本体对齐的错误率。

    基于对抗模仿学习的事件识别及分类方法、系统、装置

    公开(公告)号:CN110209816A

    公开(公告)日:2019-09-06

    申请号:CN201910440322.0

    申请日:2019-05-24

    Abstract: 本发明属于自然语言处理领域,具体涉及了一种基于对抗模仿学习的事件识别及分类方法、系统、装置,旨在解决传统事件识别及分类方法语言处理工具存在错误累计导致事件识别准确率低的问题。本发明方法包括:获取不含标准标注信息的句子并输入;将每一个词特征化后的词向量集构成词向量特征矩阵;采用向量编码器对词向量特征矩阵进行编码,并采用注意力机制为每一个词分配权重,获得知识向量;采用事件类型分类器依据知识向量计算输入信息属于各事件类别的概率;概率值最高的事件类别作为输入信息的事件类别。本发明不依赖自然语言处理工具对信息进行抽取,避免错误积累,提高了事件识别的准确率。

    基于知识过滤的大语言模型常识推理增强方法及装置

    公开(公告)号:CN120069073A

    公开(公告)日:2025-05-30

    申请号:CN202510135729.8

    申请日:2025-02-07

    Abstract: 本申请公开了一种基于知识过滤的大语言模型常识推理增强方法及装置。所述推理增强方法包括:获取包括针对常识知识的多个问题和相应的多个答案的数据集;将所述多个问题输入到基于知识过滤的大语言模型,得到对应的常识知识,以构造第一问题‑知识对;通过评估所述对应的常识知识对多个问题的相应答案的影响程度,对第一问题‑知识对进行分类并生成对应的级别标签,得到包含所述级别标签的第二问题‑知识对数据;将所述第二问题‑知识对数据和所述数据集输入到预设奖励模型,得到对应的奖励值输出;根据所述奖励值输出,调整所述预设奖励模型的各个参数,得到训练后的奖励模型,以实现所述基于知识过滤的大语言模型的推理增强。

    大语言模型的规划能力的评估方法、装置、电子设备、存储介质和计算机程序产品

    公开(公告)号:CN120011770A

    公开(公告)日:2025-05-16

    申请号:CN202510140942.8

    申请日:2025-02-08

    Abstract: 本公开关于大语言模型的规划能力的评估方法、装置、电子设备、存储介质和计算机程序产品,包括:将多个样本输入大语言模型,获得每个样本在每个层的表示向量并计算该层的提取率和探测准确率;计算每个样本所包含的每种类型的组成部分的信息流分数并评估该种类型的组成部分作为信息来源的可能性;获取屏蔽每个样本所包含的目标执行操作的操作结果之后的屏蔽预测结果以及屏蔽之前的未屏蔽预测结果并评估目标执行操作对输出结果的影响力。这样,通过计算模型的提取率、探测准确率、信息流分数和历史步骤的因果性影响,为模型在全局可观测的规划任务中具备短期的前瞻性未来决策能力的可解释性提供了理论支持。

    针对错误前提的幻觉缓解方法和装置

    公开(公告)号:CN119398181B

    公开(公告)日:2025-04-29

    申请号:CN202510008081.8

    申请日:2025-01-03

    Abstract: 本发明提供一种针对错误前提的幻觉缓解方法和装置,应用于自然语言处理技术领域。该方法包括:获取第一输入文本和第二输入文本,所述第二输入文本为将所述第一输入文本中的错误前提替换为占位符的文本;分别确定大语言模型处理所述第一输入文本时每个注意力头的第一激活值,以及处理所述第二输入文本时每个注意力头的第二激活值;按照目标处理方式确定每个注意力头对大语言模型输出幻觉文本的影响力;基于所述影响力确定目标注意力头,并对所述目标注意力头进行削弱处理。

    小型语言模型推理的知识内化渐进式方法及装置

    公开(公告)号:CN119849633A

    公开(公告)日:2025-04-18

    申请号:CN202411960089.6

    申请日:2024-12-30

    Abstract: 本发明提出了小型语言模型推理的知识内化渐进式方法及装置。所述方法包括:知识生成,利用大型语言模型(LLMs)生成针对特定训练数据的推理过程和符号知识,包括学习摘要和补充材料。其次,知识压缩与示例筛选,基于预定的线性衰减时间表,逐步对符号知识和训练示例进行压缩和精简,以优化知识表示。最后,渐进式微调,将压缩后的知识与筛选后的示例结合,用于微调SLMs,使其在推理时仅依赖于问题本身,从而提高效率。随着微调的进行,将知识逐渐内化到模型参数中,使得模型能够在推理时无需额外的文档检索或多阶段生成。本发明通过渐进式微调过程,将符号知识内化到小型语言模型中,提高了其在复杂推理任务上的性能。

    文本生成模型评估方法和装置
    99.
    发明公开

    公开(公告)号:CN119692351A

    公开(公告)日:2025-03-25

    申请号:CN202510209039.2

    申请日:2025-02-25

    Abstract: 本发明提供一种文本生成模型评估方法和装置,应用于自然语言处理技术领域。该方法包括:获取测试数据,所述测试数据包括实体属性和实体类别;根据所述测试数据生成多个测试任务,一个测试任务对应多个测试问题;将所述多个测试任务的测试问题分别输入文本生成模型,得到对应的测试结果,并根据所述测试结果确定所述文本生成模型对本体知识的掌握程度;其中,所述多个测试任务包括实体类别‑层级记忆测试、实体类别‑层级应用测试、实体属性记忆测试以及实体属性应用测试。

    基于模式匹配的大型语言模型知识编辑方法及装置

    公开(公告)号:CN119204091A

    公开(公告)日:2024-12-27

    申请号:CN202411294781.X

    申请日:2024-09-14

    Abstract: 本发明提供一种基于模式匹配的大型语言模型知识编辑方法及装置,其中,上述方法包括:获取目标编辑知识,其中,所述目标编辑知识用于对大型语言模型进行知识更新;确定所述大型语言模型中各个层级与所述目标编辑知识之间的多个模式匹配程度;确定所述多个模式匹配程度中的最高模式匹配程度,将所述最高模式匹配程度所对应的层级作为目标编辑层;基于所述目标编辑知识对所述目标编辑层的多层感知机进行秩一编辑,得到编辑后的大型语言模型;通过本发明能够在准确进行知识编辑的同时不影响其他无关数据。

Patent Agency Ranking