一种探索预训练语言模型幽默理解能力的方法

    公开(公告)号:CN118484505A

    公开(公告)日:2024-08-13

    申请号:CN202310098163.7

    申请日:2023-02-10

    Applicant: 复旦大学

    Abstract: 本发明提供一种探索预训练语言模型幽默理解能力的方法,能够系统性地指导幽默生成任务。该方法采用人机结合的幽默理解评估机制,对预训练语言模型进行幽默识别、幽默类型分类、幽默等级分类和笑点检测四个维度的幽默评估。在该方法中,基于幽默理解评估机制不仅探测了原始预训练语言模型的幽默理解能力,以此评估该原始预训练语言模型是否能够在微调之前或之后理解幽默。还探测了知识增强下预训练语言模型的幽默理解能力,从而评估外部知识是否有助于提高预训练语言模型的幽默理解能力。同时,还对预训练语言模型的幽默理解能力评估结果进行解释,以预训练语言模型是否能够检测出可解释的线索词来理解幽默三个角度来探测语言模型的幽默理解能力。

    一种文本的知识三元组抽取方法、装置及存储介质

    公开(公告)号:CN112948535A

    公开(公告)日:2021-06-11

    申请号:CN201911259634.8

    申请日:2019-12-10

    Applicant: 复旦大学

    Abstract: 本发明提供一种文本的知识三元组抽取方法、装置及存储介质,针对多映射关系和多个关系共享头、尾实体的情况,能够准确的抽取出待处理文本中的全部结果,包括以下步骤:步骤S1,获取待处理文本;步骤S2,对待处理文本进行预处理;步骤S3,使用预定的文本多标签分类模型预测待处理文本中包含的关系类别集合;步骤S4,通过预定的文本数据抽取模型对待处理文本以及关系类别集合进行抽取从而得到头尾实体集合;步骤S5,对头尾实体集合进行后处理。

    基于CN-DBpedia的实体识别与链接系统和方法

    公开(公告)号:CN108491375A

    公开(公告)日:2018-09-04

    申请号:CN201810173270.0

    申请日:2018-03-02

    Applicant: 复旦大学

    Abstract: 本发明公开了一种基于CN-DBpedia的实体识别与链接系统和方法。该系统包括实体链接模块和实体识别模块;实体链接模块包括同义词匹配单元和实体链接单元;实体识别模块包括分词器、词概率计算单元和实体判别单元。本发明构建了实体与词语的语义关系,从而能在极少的上下文中挖掘到与实体的关系。本发明将基于机器学习的实体识别算法与非监督的分词算法融合。能从全局性的角度考虑实体名划分的合理性,又扩展了分词的词表空间,以更加合理的算法计算实体词的成词概率。本发明先链接再识别,使得实体识别时充分利用到了文本的语义信息,实现更好的分词与实体识别。

    大型语言模型答案幻觉减少的方法

    公开(公告)号:CN119338006A

    公开(公告)日:2025-01-21

    申请号:CN202411469124.4

    申请日:2024-10-21

    Applicant: 复旦大学

    Abstract: 本发明提供了一种大型语言模型答案幻觉减少的方法,具有这样的特征,包括步骤S1,根据现有数据构建包含多个幻觉类别的幻觉评估数据集;步骤S2,根据幻觉评估数据集对大语言模型的隐藏层和注意力头的输出进行分析,得到大语言模型对各个幻觉类别具有异常响应的隐藏层和注意力头,以及各个幻觉类别对应的高贡献词;步骤S3,将指定问题输入大语言模型,得到该大语言模型对该指定问题的答案选择概率以及该大语言模型的中间生成数据;步骤S4,根据高贡献词、中间生成数据、答案选择概率,结合具有异常响应的隐藏层和注意力头,通过选择函数计算得到答案选择概率对应的调整后概率。总之,本方法能够减少大语言模型生成幻觉。

    大语言模型不完全信息下的问题处理能力的评测装置

    公开(公告)号:CN118689981A

    公开(公告)日:2024-09-24

    申请号:CN202410780036.X

    申请日:2024-06-17

    Applicant: 复旦大学

    Abstract: 本发明提供了一种大语言模型不完全信息下的问题处理能力的评测装置,具有这样的特征,包括评测实体生成模块用于根据现有的实体猜测数据,生成层次概念列表和相似实体;简单难度猜测模块用于根据实体及其对应的底层概念,得到对应的简单难度猜测结果和简单难度猜测轮数;普通难度猜测模块用于根据实体及其对应的中间层概念,得到对应的普通难度猜测结果和普通难度猜测轮数;困难难度猜测模块用于根据实体及其对应的底层概念和相似实体,得到对应的困难难度猜测结果、困难难度猜测轮数和问答记录;分析计算模块用于计算得到不完全信息下的问题处理能力结果。总之,本装置能够客观准确地评估大语言模型多个方面的不完全信息下的问题处理能力。

    基于分层强化学习的端到端实体链接方法

    公开(公告)号:CN118468872A

    公开(公告)日:2024-08-09

    申请号:CN202310086891.6

    申请日:2023-02-09

    Applicant: 复旦大学

    Abstract: 本发明提供了一种基于分层强化学习的端到端实体链接方法,具有这样的特征,包括以下步骤:步骤S1构建结果集合;步骤S2输入文本编码得到高层状态;步骤S3由高层状态生成候选指代集合;步骤S4由高层策略得到高层动作若为候选指代进入步骤S5否则进入步骤S11;步骤S5将高层动作编码获得向量;步骤S6初始化i和单词序列;步骤S7由向量和单词序列得低层状态;步骤S8由低层策略得低层动作若为单词进入步骤S9否则进入步骤S10;步骤S9低层动作放入单词序列中i加1进入步骤S7;步骤S10候选指代和单词序列放入结果集合进入步骤S2;步骤S11结果集合作为实体链接结果。总之,本方法能够更加准确地对指代链接实体。

    机器高阶认知的预训练语言模型幽默回复能力增强方法

    公开(公告)号:CN117744626A

    公开(公告)日:2024-03-22

    申请号:CN202311195450.6

    申请日:2023-09-17

    Applicant: 复旦大学

    Abstract: 本发明属于机器高阶认知技术领域,具体为机器高阶认知的预训练语言模型幽默回复能力增强方法。本发明方法包括:建立常规文本和幽默文本之间的联系,包括构建一个由若干条上文‑幽默回复组成的可解释数据集,每一个上文‑幽默回复对都有一个幽默链和幽默思维导图,展示生成幽默回复需要的知识和逻辑推理过程;评估和提高预训练语言模型的幽默回复能力,包括设计幽默情感风格分类任务和幽默改写任务,作为以多任务训练的方式辅助幽默回复;设计编码器‑解码器框架,将幽默链和幽默思维导图注入预训练语言模型中,并基于多任务学习的方式利用两个辅助任务增强预训练语言模型的幽默回复能力。本发明可大大增强预训练语言模型的幽默回复能力。

    大规模语言模型生成答案可靠性检测方法

    公开(公告)号:CN117390409A

    公开(公告)日:2024-01-12

    申请号:CN202311195452.5

    申请日:2023-09-17

    Applicant: 复旦大学

    Abstract: 本发明属于大规模语言模型技术领域,具体为一种大规模语言模型生成答案可靠性检测方法。本发明通过构建一个鲁棒的判别器RelD来检测大规模语言模型生成答案的可靠性,包括构建训练数据集RelQA,该数据集包括现有多个数据集的问题、上下文和大规模语言模型生成的答案以及多种评估指标;将RelQA作为输入,结合预训练语言模型,使用加权平均概率方法拟合生成答案的人工标注,来训练判别器RelD;判别器RelD对大规模语言模型生成的答案进行二分类,以此判断生成的答案的可靠性。本发明能够提供更全面、准确的评估结果,更好地反映出生成答案的质量;可以适用于不同的大型语言模型和应用场景,具有较强的可扩展性。

    面向招聘领域的职位概念自动获取与图谱扩展的方法

    公开(公告)号:CN116304092A

    公开(公告)日:2023-06-23

    申请号:CN202310237736.X

    申请日:2023-03-02

    Abstract: 本发明公开一种面向招聘领域的职位概念自动获取与图谱扩展的方法,包括如下步骤:构建概念生成模型、层级文本分类模型;将岗位描述文本输入层级文本分类模型,输出与其对应的三级概念标签;判断该岗位描述文本是否属于现有的Taxonomy中的某个概念实体,若不属于,则调用概念生成模型生成与该岗位描述文本对应的新概念实体;在现有的Taxonomy中,寻找与该新概念实体对应的上位概念实体,并将该新概念实体作为上位概念实体的下位词。本发明设计了从概念生成到概念分类,再到概念扩展的完整自动化框架,整个框架流程和各模块的触发关系是具有独创性的,且在实际业务场景中验证了有效性。

    一种文本的知识三元组抽取方法、装置及存储介质

    公开(公告)号:CN112948535B

    公开(公告)日:2022-06-14

    申请号:CN201911259634.8

    申请日:2019-12-10

    Applicant: 复旦大学

    Abstract: 本发明提供一种文本的知识三元组抽取方法、装置及存储介质,针对多映射关系和多个关系共享头、尾实体的情况,能够准确的抽取出待处理文本中的全部结果,包括以下步骤:步骤S1,获取待处理文本;步骤S2,对待处理文本进行预处理;步骤S3,使用预定的文本多标签分类模型预测待处理文本中包含的关系类别集合;步骤S4,通过预定的文本数据抽取模型对待处理文本以及关系类别集合进行抽取从而得到头尾实体集合;步骤S5,对头尾实体集合进行后处理。

Patent Agency Ranking