一种用于复杂事件理解的动态假设验证方法及装置

    公开(公告)号:CN119088903A

    公开(公告)日:2024-12-06

    申请号:CN202411150973.3

    申请日:2024-08-21

    Abstract: 本发明公开了一种用于复杂事件理解的动态假设验证方法及装置,属于自然语言处理技术领域。方法包括以下步骤:S1、采集并标注数据集;S2、构建动态多视角思维代理框架,采用所述数据集对所述动态多视角思维代理框架进行训练,并基于训练后的所述动态多视角思维代理框架对用户关于复杂事件的查询生成综合答案。本发明通过提出一种新颖的动态多视角思维代理框架使语言模型能够主动提出并动态调整假设,通过检索和推理过程验证假设,并最终综合出全面的解决方案。

    基于大语言模型的医学知识问答系统构建方法及系统

    公开(公告)号:CN118568221A

    公开(公告)日:2024-08-30

    申请号:CN202410639259.4

    申请日:2024-05-22

    Abstract: 基于大语言模型的医学知识问答系统构建方法及系统,本发明涉及计算机技术领域,特别是医学知识问答系统构建方法及系统。本发明的目的是为了解决现有针对医学的大语言模型生成的医学回答准确性低、可靠性差的问题。过程为:构建医学实体抽取模型的训练集;构建医学实体抽取模型;获得训练好的医学实体抽取模型;构建医学实体属性抽取模型的训练集;构建医学实体属性抽取模型;获得训练好的医学实体属性抽取模型;构建医学回答生成模型的训练集;构建医学回答生成模型;获得训练好的医学回答生成模型;基于训练好的医学实体抽取模型、训练好的医学实体属性抽取模型、训练好的医学回答生成模型,对待测医学问题进行处理,输出医学回答。

    一种基于因果事件抽取模型的因果事件抽取方法

    公开(公告)号:CN116431789A

    公开(公告)日:2023-07-14

    申请号:CN202310419495.0

    申请日:2023-04-19

    Abstract: 本发明公开了一种基于因果事件抽取模型的因果事件抽取方法,包括以下步骤:基于事件抽取以及因果关系识别两个子任务,构建因果事件抽取模型;获取待输入语句;基于预训练语言模型,对待输入语句进行编码,基于序列标注解码器,对编码的待输入语句进行解码,抽取存在因果关联的事件;基于因果事件抽取模型,构建初始背景图;将事件插入到初始背景图,获得更新背景图;采用图神经网络,对更新背景图,进行编码以及更新,获得抽取的事件的表示;基于分类器以及抽取的事件的表示,获得事件之间的因果关系,实现因果事件的抽取。对不同因果事件对的句子的实验结果证明了本发明的方法抽取复杂因果关系的能力。

    基于多关系图模型的多模态对话问答生成方法

    公开(公告)号:CN115712709A

    公开(公告)日:2023-02-24

    申请号:CN202211451009.5

    申请日:2022-11-18

    Abstract: 基于多关系图模型的多模态对话问答生成方法,涉及一种多模态对话问答生成方法。本发明为了解决现有的多模态对话系统仅考虑场景序列化信息而导致现有模型效果一般的问题。本发明首先将视频序列化切分为多个视频片段,对于每个片段获取该片段的色彩特征、光流特征和音频特征,并拼接起来,再加入位置信息和模态信息得到各个视频片段的序列表示;将每个视频片段视作顶点,构建基于全联通关系的视频图并输入图卷积神经网络,得到视频隐藏层序列以及与原视频序列的融合表示;然后利用相似的方式处理基于视听场景标题和对话历史对应的词向量得到各自对应的文本隐藏层序列以及与原文本序列的融合表示;最后利用神经网络模型生成回答。

    一种多模态多粒度实体识别系统及实体识别方法

    公开(公告)号:CN115545018A

    公开(公告)日:2022-12-30

    申请号:CN202211263174.8

    申请日:2022-10-14

    Abstract: 一种多模态多粒度实体识别系统及实体识别方法,本发明涉及实体识别系统及实体识别方法。本发明的目的是为了解决当前多模态实体抽取模型中缺少对细粒度图文匹配的建模,导致部分实体识别错误,实体识别准确率低的问题。系统包括:训练集获取模块用于获取训练集;实体识别模型构建模块用于构建实体识别模型;实体识别模型包括多模态多粒度实体识别模型、VGTR模型和CLIP模型;实体识别模型训练模块用于得到训练好的实体识别模型;预测模块用于将待测的匹配图片和文本输入训练好的实体识别模型中的多模态多粒度实体识别模型中,输出标注序列,获得待测的匹配图片和文本中的实体。本发明用于新闻、医疗、军事、农业实体识别领域。

    一种基于预训练语言模型的文本生成方法

    公开(公告)号:CN114510924A

    公开(公告)日:2022-05-17

    申请号:CN202210133050.1

    申请日:2022-02-14

    Abstract: 一种基于预训练语言模型的文本生成方法,它属于自然语言处理技术领域。本发明解决了现有加权解码的可控生成方法无法在保证生成文本质量的前提下达到理想风格强度的问题。本发明提出了能够动态调节控制器权重的加权解码框架,该框架使用了一个规整模块,能够根据当前解码位置的语言模型信息对控制器的行为进行约束。如果当前解码位置不适合生成包含目标风格的词语时,规整模块会抑制控制器并使其失效;如果当前解码位置可以生成与目标风格相关的词语时,规整模块会增强控制器并确保在该解码位置生成的词语包含目标风格。本发明方法可以应用于可控文本生成。

    长句压缩方法及相关装置
    49.
    发明公开

    公开(公告)号:CN114444466A

    公开(公告)日:2022-05-06

    申请号:CN202011196905.2

    申请日:2020-10-31

    Abstract: 本申请实施例公开了一种长句压缩方法,本申请实施例方法包括:数据处理设备获取原始长句后,根据BERT模型处理原始长句,得到BERT长句,其中BERT长句的内容和原始长句的内容一一对应,BERT长句的内容利用BERT模型中的多层数据,数据处理设备通过预置算法处理该BERT长句,得到压缩后的目标长句,根据本申请实施例提供的技术方案,对原始长句进行压缩时,利用BERT模型中的多层数据,提高了压缩后目标长句的准确率。

    一种基于预训练的结构化数据生成文本的方法

    公开(公告)号:CN110609986B

    公开(公告)日:2022-04-05

    申请号:CN201910940399.4

    申请日:2019-09-30

    Abstract: 一种基于预训练的结构化数据生成文本的方法,本发明涉及结构化数据生成文本方法。本发明的目的是为了解决在结构化数据生成文本上,现有模型对表格数据进行建模时,没有考虑数据之间的内在隐含关系,导致文本生成准确率低的问题。过程为:一、随机MASK掉若干个三元组中一个三元组中的一个数据,用@代替;根据表格中数据间具有的计算序列关系得到表征@隐去的计算序列;二、得到表格中同一行的所有记录均值池化后的行向量;三、得到预训练模型,保留预训练模型的参数;四:得到表格行向量;五:验证步骤三的预训练模型;六:得到对表格中同一行的所有记录进行均值池化后的行向量;七:得到表格中数据代表的信息。本发明用于生成文本领域。

Patent Agency Ranking