-
公开(公告)号:CN114490954A
公开(公告)日:2022-05-13
申请号:CN202210403218.6
申请日:2022-04-18
Applicant: 东南大学
IPC: G06F16/33 , G06F16/35 , G06F40/126 , G06F40/205 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明公开了一种基于任务调节的文档级生成式事件抽取方法,包括以下步骤:构建基于任务调节的文档级生成式事件抽取框架;根据事件抽取任务的事件类型来创建编码器前缀,然后注入编码器;根据事件抽取任务的事件类型和输入文档的词元表示来创建解码器前缀,然后注入解码器;利用最小负对数似然损失函数来训练事件抽取神经网络模型,并且在测试过程中使用约束解码算法;该方案构建了一个生成式事件抽取模型,它将事件类型作为前缀注入基于Transformer模型的每一层,有效提升了模型的F1值,在文档级和零样本事件抽取任务中表现出优越的性能,实现了有效的零样本学习和监督学习,在三个主流数据集上均取得了最先进的效果。
-
公开(公告)号:CN112667732A
公开(公告)日:2021-04-16
申请号:CN202110099305.2
申请日:2021-01-25
Applicant: 东南大学
Abstract: 本发明公布了一种基于任务感知元学习的持续关系抽取方法,包括:步骤1)构建基于任务感知元学习的持续关系抽取框架;所述框架包含:关系抽取神经网络分类模型、任务序列、记忆数据仓库、记忆数据选择器、负例标签选择器、元学习网络模型训练方法和参数更新方法。步骤2)结合任务与分类模型交互信息和任务自身语义信息,使用负例标签选择器为训练数据选择合适的负例标签。步骤3)训练关系抽取神经网络模型,并结合元学习思想对模型参数进行更新。步骤4)利用聚类方法从训练数据中挑选出一批记忆缓存。步骤5)将更新后的参数载入到模型,并进行性能测试。所述于基于任务感知元学习的持续关系抽取方法可以有效提升持续关系抽取效果。
-
公开(公告)号:CN112084330A
公开(公告)日:2020-12-15
申请号:CN202010806791.2
申请日:2020-08-12
Applicant: 东南大学
IPC: G06F16/35 , G06F40/295 , G06N3/04
Abstract: 本发明公开了一种基于课程规划元学习的增量关系抽取方法,包括以下步骤:构建课程规划元学习增量关系抽取框架;计算关系间相似度,并根据相似度重新规划记忆缓存训练顺序;训练关系抽取神经网络模型,并结合元学习思想,使用元学习参数更新公式对关系抽取神经网络模型的参数进行更新;利用聚类方法从训练数据中挑选出一批记忆缓存;将更新后的参数载入到关系抽取神经网络模型,并进行性能测试。本发明将课程学习和元学习思想引入到增量关系抽取任务中,有效提升了模型的平均准确率和整体准确率,并降低了模型的误差范围,从而有效缓解了增量学习中的“灾难性遗忘”和“次序敏感”问题,在主流的数据集上取得了优于传统方法的效果。
-
公开(公告)号:CN117373448A
公开(公告)日:2024-01-09
申请号:CN202311252705.8
申请日:2023-09-26
Applicant: 东南大学
IPC: G10L15/22 , G10L15/183 , G10L15/16 , G10L15/06 , G10L15/02
Abstract: 本发明公开了一种基于上下文线索的语音事件抽取方法,旨在实现从语音信号中准确地抽取事件信息。该方法包括构建基于上下文线索的语音事件抽取模型,并逐步实现语音编码器和文本解码器。与传统方法不同的是,本发明提出了一种有效的条件生成策略,同时生成语音识别转录文本和序列化事件。其中,语音识别转录文本作为上下文线索,用于协调语音和文本两种模态,从而增强事件抽取的准确性和效果。在经过中英文数据集的实验验证后,结果表明本方法能够有效提升语音事件抽取的输出质量和整体性能。这种基于上下文线索的语音事件抽取方法在多个领域具有广泛的应用前景。
-
公开(公告)号:CN115982586A
公开(公告)日:2023-04-18
申请号:CN202310025951.3
申请日:2023-01-09
Applicant: 东南大学
IPC: G06F18/214 , G06F18/23213 , G06N3/0442 , G06N3/0895 , G06N3/088 , G06F40/151 , G06F16/242
Abstract: 本发明涉及一种针对少样本文本转SQL任务流的半监督持续学习方法,所述方法包括以下步骤:步骤1,对于新任务,模型使用任务内部的半监督学习进行训练,步骤2,对于任务流中过去的任务,模型使用持续学习将保持对已经学过的任务的记忆,步骤3,利用“教师‑学生”框架分别执行半监督学习过程与持续学习过程;步骤4,利用双重采样加强执行半监督学习与持续学习,分别包括提示采样和复习采样,加强两个学习过程的相互促进。该技术方案应用了“教师‑学生”框架来隔离半监督学习和持续学习的不同优化目标,并采用双重采样策略来加强它们之间的相互促进作用。
-
公开(公告)号:CN115563315A
公开(公告)日:2023-01-03
申请号:CN202211527785.9
申请日:2022-12-01
Applicant: 东南大学
Abstract: 本发明公开了一种面向持续少样本学习的主动复杂关系抽取方法,属于计算机自然语言处理领域,该方案设计基于模拟学习的主动学习方法,考虑结合无标注数据完成数据的累积,并且充分利用后增的标注数据,以弥补数据漂移带来的影响、提升模型的效果;在每个任务结束后结合持续学习策略,缓解图谱构建场景中持续新增关系的问题,使得少样本场景下的数据累积和关系扩增问题得到有效的解决。在每个任务结束后结合持续学习策略,缓解了图谱构建场景中持续新增关系导致的一系列问题。从而使得实际应用中,少样本场景下的数据累积和关系扩增问题得到有效的解决。
-
公开(公告)号:CN112667732B
公开(公告)日:2024-08-16
申请号:CN202110099305.2
申请日:2021-01-25
Applicant: 东南大学
IPC: G06F16/25 , G06F16/35 , G06F16/36 , G06F16/38 , G06F18/23213 , G06N3/0442 , G06N3/0455 , G06N3/084 , G06N3/0985
Abstract: 本发明公布了一种基于任务感知元学习的持续关系抽取方法,包括:步骤1)构建基于任务感知元学习的持续关系抽取框架;所述框架包含:关系抽取神经网络分类模型、任务序列、记忆数据仓库、记忆数据选择器、负例标签选择器、元学习网络模型训练方法和参数更新方法。步骤2)结合任务与分类模型交互信息和任务自身语义信息,使用负例标签选择器为训练数据选择合适的负例标签。步骤3)训练关系抽取神经网络模型,并结合元学习思想对模型参数进行更新。步骤4)利用聚类方法从训练数据中挑选出一批记忆缓存。步骤5)将更新后的参数载入到模型,并进行性能测试。所述于基于任务感知元学习的持续关系抽取方法可以有效提升持续关系抽取效果。
-
公开(公告)号:CN112084330B
公开(公告)日:2025-01-14
申请号:CN202010806791.2
申请日:2020-08-12
Applicant: 东南大学
IPC: G06F16/35 , G06F40/295 , G06N3/0442 , G06N3/0985
Abstract: 本发明公开了一种基于课程规划元学习的增量关系抽取方法,包括以下步骤:构建课程规划元学习增量关系抽取框架;计算关系间相似度,并根据相似度重新规划记忆缓存训练顺序;训练关系抽取神经网络模型,并结合元学习思想,使用元学习参数更新公式对关系抽取神经网络模型的参数进行更新;利用聚类方法从训练数据中挑选出一批记忆缓存;将更新后的参数载入到关系抽取神经网络模型,并进行性能测试。本发明将课程学习和元学习思想引入到增量关系抽取任务中,有效提升了模型的平均准确率和整体准确率,并降低了模型的误差范围,从而有效缓解了增量学习中的“灾难性遗忘”和“次序敏感”问题,在主流的数据集上取得了优于传统方法的效果。
-
公开(公告)号:CN117153141A
公开(公告)日:2023-12-01
申请号:CN202310978819.4
申请日:2023-08-04
Applicant: 东南大学
Abstract: 本发明公开了一种基于约束生成和扁平事件表示的语音事件抽取方法,包括以下步骤:构建面向语音的事件抽取框架;利用Text‑to‑Speech工具合成语音,设计扁平事件表示方法,构建语音事件抽取数据集;以端到端的方式训练语音事件抽取模型,并且在推理过程注入事件模式知识以实现可控文本生成。本发明首次提出面向语音的结构化语义事件抽取任务,贡献了两个相关数据集,设计了端到端语音事件抽取模型,通过约束生成和扁平事件表示方法有效提升了模型的准确率和抽取效率。
-
公开(公告)号:CN114490954B
公开(公告)日:2022-07-15
申请号:CN202210403218.6
申请日:2022-04-18
Applicant: 东南大学
IPC: G06F16/33 , G06F16/35 , G06F40/126 , G06F40/205 , G06N3/04 , G06N3/08 , G06N5/04
Abstract: 本发明公开了一种基于任务调节的文档级生成式事件抽取方法,包括以下步骤:构建基于任务调节的文档级生成式事件抽取框架;根据事件抽取任务的事件类型来创建编码器前缀,然后注入编码器;根据事件抽取任务的事件类型和输入文档的词元表示来创建解码器前缀,然后注入解码器;利用最小负对数似然损失函数来训练事件抽取神经网络模型,并且在测试过程中使用约束解码算法;该方案构建了一个生成式事件抽取模型,它将事件类型作为前缀注入基于Transformer模型的每一层,有效提升了模型的F1值,在文档级和零样本事件抽取任务中表现出优越的性能,实现了有效的零样本学习和监督学习,在三个主流数据集上均取得了最先进的效果。
-
-
-
-
-
-
-
-
-