基于多知识库和整数线性规划ILP的自动问答方法和系统

    公开(公告)号:CN104820694A

    公开(公告)日:2015-08-05

    申请号:CN201510208978.1

    申请日:2015-04-28

    CPC classification number: G06F17/30401 G06F17/30557

    Abstract: 本发明提供一种基于多知识库和整数线性规划ILP的自动问答方法和系统,所述方法包括:创建用于索引多个知识库的实体和/或关系的资源字典;在所述资源字典中查询并由自然语句的多个文本片段映射到的多个实体和/或多个关系构成多个候选资源;对各候选资源执行转换,获得对应的多个模板;将所述各文本片段、映射、候选资源、转换、和模板组合成消歧图;根据ILP对所述消歧图进行联合推理、选取至少一个待查询模板来生成规范查询语句。本发明所述方法能够对自然语句在多知识库中进行较精确的查询。

    一种基于循环卷积网络的文本分类方法

    公开(公告)号:CN104572892A

    公开(公告)日:2015-04-29

    申请号:CN201410817856.8

    申请日:2014-12-24

    CPC classification number: G06F17/30707

    Abstract: 本发明公开了一种基于循环卷积网络的文本分类方法,包括以下步骤:步骤1,利用双向循环网络对所有词进行上下文向量的表示;步骤2,将上下文向量及当前词的词向量组合成当前词的表示;步骤3,利用最大池化技术提取最重要的上下文信息得到文本表示;步骤4,利用文本表示进行文本分类。该方法能够较多地保留文本中的词序信息,捕捉长距离的文本依赖关系,精确刻画词的语义,并通过最大池化技术找到对文本分类影响最大的词和短语。有效地提高了文本分类的准确率。经过试验证明,本方法在多个文本分类数据集上平均提升1%。

    文本答案的推理方法、装置及存储介质

    公开(公告)号:CN116521834B

    公开(公告)日:2025-03-25

    申请号:CN202310303093.4

    申请日:2023-03-23

    Abstract: 本申请提供一种文本答案的推理方法、装置及存储介质,所述方法包括:输入第一文本到语言模型,获取所述语言模型输出的多个候选答案;所述第一文本为待识别的文本;以每一候选答案作为条件确定每一候选答案对应的验证分数;所述验证分数表示候选答案的置信度;输出最高验证分数对应的候选答案作为所述第一文本的推理答案。本申请提供的文本答案的推理方法、装置及存储介质,将语言模型生成的答案替换原始条件后,再次输入到语言模型中,从而验证答案。通过这种自我验证的方法,提高了语言模型输出结果的鲁棒性和准确性。

    针对错误前提的幻觉缓解方法和装置

    公开(公告)号:CN119398181A

    公开(公告)日:2025-02-07

    申请号:CN202510008081.8

    申请日:2025-01-03

    Abstract: 本发明提供一种针对错误前提的幻觉缓解方法和装置,应用于自然语言处理技术领域。该方法包括:获取第一输入文本和第二输入文本,所述第二输入文本为将所述第一输入文本中的错误前提替换为占位符的文本;分别确定大语言模型处理所述第一输入文本时每个注意力头的第一激活值,以及处理所述第二输入文本时每个注意力头的第二激活值;按照目标处理方式确定每个注意力头对大语言模型输出幻觉文本的影响力;基于所述影响力确定目标注意力头,并对所述目标注意力头进行削弱处理。

    基于统一查询编码器的知识图谱复杂问答方法及装置

    公开(公告)号:CN116992004B

    公开(公告)日:2024-12-06

    申请号:CN202311069119.X

    申请日:2023-08-23

    Abstract: 本发明提供一种基于统一查询编码器的知识图谱复杂问答方法及装置,其中方法包括:获取查询图的全局特征表示;全局特征表示用于反映查询图的头实体和头实体之间的关系类型的特征信息;将全局特征表示和实体表示输入至神经链接预测器中,由神经链接预测器得到并输出预测尾实体;神经链接预测器是基于知识图谱补全任务训练得到的;实体表示是基于神经链接预测器预先确定的。本发明提供的方法及装置,通过端到端的方法将复杂查询编码为与简单查询相同的形式,从而能够充分利用神经链接预测器,该查询过程可以视为端到端地从神经链接预测器中直接检索答案,因此能够避免逐步计算所有中间节点所产生的错误累积,提高知识问答的成功率以及准确度。

    文本数据处理方法和文本数据处理装置

    公开(公告)号:CN118982003A

    公开(公告)日:2024-11-19

    申请号:CN202410994182.2

    申请日:2024-07-23

    Abstract: 提供一种文本数据处理方法和文本数据处理装置。所述文本数据处理方法包括:获取文本数据,并将文本数据输入到通过将语言模型与编译型神经网络融合而生成的文本数据处理模型,其中,语言模型被预先训练,并且编译型神经网络在没有被预先训练的情况下根据要执行的规则密集型任务被分配相应的神经网络权重;基于文本数据处理模型中的语言模型从文本数据确定与文本数据对应的文本数据处理任务;以及响应于文本数据处理任务指示规则密集型任务,基于文本数据处理模型中的编译型神经网络执行规则密集型任务。

    因果关系的识别方法、装置、电子设备、存储介质和计算机程序产品

    公开(公告)号:CN118917313A

    公开(公告)日:2024-11-08

    申请号:CN202411072445.0

    申请日:2024-08-06

    Abstract: 本公开涉及自然语言处理技术领域,具体涉及一种因果关系的识别方法、装置、电子设备、存储介质和计算机程序产品,因果关系的识别方法包括:获取目标语言的待识别文本数据;基于源语言的文本数据训练得到的异构图交互网络,对待识别文本数据中事件间的因果关系进行识别,其中,目标语言包括与源语言不同的语言。可以通过构建异构图交互网络并对源语言中包含事件对的陈述、以及不包含事件对的陈述进行多语言复写后,在陈述层面使用对比学习的方式提高从源语言学习的因果知识的跨语言可迁移性;使得用源语言中的标注数据训练的异构图交互网络能够直接应用于目标语言,实现零样本跨语言的文档级因果识别模型,解决了低资源语言识别能力差的问题。

    上下文学习示例的选择方法、装置、电子设备和存储介质

    公开(公告)号:CN118862896A

    公开(公告)日:2024-10-29

    申请号:CN202410752109.4

    申请日:2024-06-12

    Abstract: 本发明提供一种上下文学习示例的选择方法、装置、电子设备和存储介质,该方法包括:获取候选示例集;基于候选示例集中各候选示例在打分示例集上的整体影响,确定候选示例集的影响相似度矩阵;打分示例集包括多个预先获取的验证示例;基于行列式点过程算法对候选示例集的影响相似度矩阵进行子集选取,选择得到上下文学习示例。本发明提供的方法,通过各候选示例在打分示例集上的整体影响,确定候选示例集的影响相似度矩阵,基于行列式点过程算法对候选示例集的影响相似度矩阵进行子集选取,选择得到能够用于多种类型的上下文学习任务的学习示例,大大节省了在实际应用中进行挑选学习示例的时间,进而提升了执行上下文学习任务的执行效率。

    面向检索增强语言模型的知识冲突分析缓解方法

    公开(公告)号:CN118606444A

    公开(公告)日:2024-09-06

    申请号:CN202410656522.0

    申请日:2024-05-24

    Abstract: 本发明涉及自然语言处理技术领域,提供一种面向检索增强语言模型的知识冲突分析缓解方法,利用模型内部记忆答案、外部来源答案和回复结果,从回复结果的正确性、忠实性和模型记忆性中至少一个角度,对检索增强语言模型进行知识冲突分析,得到分析结果,如此可以更加清晰的确定出检索增强语言模型存在的问题。在分析结果是检索增强语言模型存在知识冲突的情况下,利用问题样本及其对应于知识冲突的类型的答案样本,对检索增强语言模型进行训练,以缓解检索增强语言模型的知识冲突问题,提高其平均召回率,更好地校准检索增强语言模型的置信度水平,提高其在面对知识冲突时的决策质量,确保检索增强语言模型能够在面对复杂的信息时做出准确判断。

Patent Agency Ranking