-
公开(公告)号:CN118504587A
公开(公告)日:2024-08-16
申请号:CN202410658392.4
申请日:2024-05-27
Applicant: 中南大学
IPC: G06F40/35 , G06F40/295 , G06N20/00
Abstract: 本发明涉及一种基于解耦预训练的多意图对话语言理解方法及系统,方法包括:使用命名体识别训练数据对预置对话语言模型进行任务无关能力预训练得到第一阶段模型;利用单意图对话语言理解训练数据对第一阶段模型进行任务特定能力预训练得到第二阶段模型;通过多意图对话语言理解微调数据对第二阶段模型进行调整,得到多意图对话语言理解模型;基于多意图对话语言理解模型对待分析多意图对话请求进行处理,得到多个意图和槽位。仅需利用相对丰富且容易获得的命名体识别训练数据、单意图对话语言理解数据和少量的多意图对话语言理解微调数据即可实现更好的多意图对话语言理解的效果,极大地缓解了多意图对话语言理解研究所面临的数据稀缺问题。
-
公开(公告)号:CN117422118A
公开(公告)日:2024-01-19
申请号:CN202311542337.0
申请日:2023-11-17
Applicant: 中南大学
IPC: G06N3/08 , G06N3/0455 , G06N5/04
Abstract: 本发明公开了一种面向任务型对话中一致性识别的模块化预训练方法、系统及介质,其中方法包括:选取预训练的骨干网络;获取预训练数据构建查询响应匹配任务数据集、对话历史一致性识别任务数据集、基于知识库的掩码建模任务数据集;基于查询响应匹配任务数据集,对骨干网络进行查询响应一致性识别预训练;进而基于对话历史一致性识别任务数据集,对骨干网络进行对话历史一致性识别预训练;进而通过基于知识库的掩码建模任务数据集,对骨干网络进行基于知识库的一致性识别预训练。三种预训练后,模型可进行面向任务型对话中的一致性识别。解决了预训练因训练目标及训练数据的一般性而导致的难以针对上下文理解和知识库推理能力进行训练的问题。
-
公开(公告)号:CN118504587B
公开(公告)日:2024-12-03
申请号:CN202410658392.4
申请日:2024-05-27
Applicant: 中南大学
IPC: G06F40/35 , G06F40/295 , G06N20/00
Abstract: 本发明涉及一种基于解耦预训练的多意图对话语言理解方法及系统,方法包括:使用命名体识别训练数据对预置对话语言模型进行任务无关能力预训练得到第一阶段模型;利用单意图对话语言理解训练数据对第一阶段模型进行任务特定能力预训练得到第二阶段模型;通过多意图对话语言理解微调数据对第二阶段模型进行调整,得到多意图对话语言理解模型;基于多意图对话语言理解模型对待分析多意图对话请求进行处理,得到多个意图和槽位。仅需利用相对丰富且容易获得的命名体识别训练数据、单意图对话语言理解数据和少量的多意图对话语言理解微调数据即可实现更好的多意图对话语言理解的效果,极大地缓解了多意图对话语言理解研究所面临的数据稀缺问题。
-
-
公开(公告)号:CN117422118B
公开(公告)日:2024-07-16
申请号:CN202311542337.0
申请日:2023-11-17
Applicant: 中南大学
IPC: G06N3/08 , G06N3/0455 , G06N5/04
Abstract: 本发明公开了一种面向任务型对话中一致性识别的模块化预训练方法、系统及介质,其中方法包括:选取预训练的骨干网络;获取预训练数据构建查询响应匹配任务数据集、对话历史一致性识别任务数据集、基于知识库的掩码建模任务数据集;基于查询响应匹配任务数据集,对骨干网络进行查询响应一致性识别预训练;进而基于对话历史一致性识别任务数据集,对骨干网络进行对话历史一致性识别预训练;进而通过基于知识库的掩码建模任务数据集,对骨干网络进行基于知识库的一致性识别预训练。三种预训练后,模型可进行面向任务型对话中的一致性识别。解决了预训练因训练目标及训练数据的一般性而导致的难以针对上下文理解和知识库推理能力进行训练的问题。
-
公开(公告)号:CN116628160B
公开(公告)日:2024-04-19
申请号:CN202310589810.4
申请日:2023-05-24
Applicant: 中南大学
IPC: G06F16/332 , G06F16/33 , G06F16/28
Abstract: 本发明公开了一种基于多知识库的任务型对话方法、系统及介质,其中方法包括:获取用户对话历史信息,并进行预处理;对预处理后的对话历史信息转化为三元组向量序列;通过自注意编码器对三元组向量序列进行编码生成最终对话历史;利用异构图网络来建模不同知识库之间的推理过程。利用编码生成的最终对话历史表示初始化解码器,解码器利用草稿模型生成最终的对话响应中的常用词和知识实体。解决了现有的基于单个知识库的任务型对话系统无法满足现实世界中一些复杂场景对对话系统的要求问题。
-
公开(公告)号:CN116701637A
公开(公告)日:2023-09-05
申请号:CN202310778409.5
申请日:2023-06-29
Applicant: 中南大学
IPC: G06F16/35 , G06F40/30 , G06N3/0455 , G06N3/0464 , G06V10/82 , G06V10/74 , G06F18/22
Abstract: 本发明公开了一种基于CLIP的零样本文本分类方法、系统及介质,其中方法包括:S1:获取待分类文本;S2:将文本输入文本编码器得到文本向量,将文本图像集中的图像集输入图像编码器得到图像向量;S3:将文本向量和图像向量进行计算处理得到图片和文本的相似程度;S4:根据当前分类任务类型和计算得到的相似程度进行预测匹配得到文本分类的结果。将文本信息和图像信息相结合,并应用于自然语言处理中,实现了将文本分类任务重构为CLIP模型能够解决的文本图像匹配任务,提高了文本分类的精度。
-
公开(公告)号:CN117668184A
公开(公告)日:2024-03-08
申请号:CN202311623057.2
申请日:2023-11-30
Applicant: 中南大学
IPC: G06F16/332 , G06F16/36 , G06N5/022 , G06F16/33 , G06F40/126
Abstract: 本发明公开了一种基于知识跟踪的端到端任务型对话方法、系统、终端及介质,其中方法包括:构建一个用来训练模型带有知识跟踪的端到端对话数据集;将带有知识跟踪的端到端对话数据集中的对话历史和知识库的内容转化为三元组向量的形式的表示;使用GLMP记忆网络对对话历史进行编码,以及将向量化的对话历史和知识库储存起来;通过知识跟踪层以对话历史编码最后一个隐藏状态作为查询向量,检索相应的知识实体以及支持事实;将得到的支持事实集成到流水线架构的端到端任务型或常规的端到端任务型对话系统中。解决了端到端任务型对话系统由于检索过程的不确定性,而导致的生成系统响应的不可靠和难以解释的问题。
-
公开(公告)号:CN117668184B
公开(公告)日:2024-10-29
申请号:CN202311623057.2
申请日:2023-11-30
Applicant: 中南大学
IPC: G06F16/332 , G06F16/36 , G06N5/022 , G06F16/33 , G06F40/126
Abstract: 本发明公开了一种基于知识跟踪的端到端任务型对话方法、系统、终端及介质,其中方法包括:构建一个用来训练模型带有知识跟踪的端到端对话数据集;将带有知识跟踪的端到端对话数据集中的对话历史和知识库的内容转化为三元组向量的形式的表示;使用GLMP记忆网络对对话历史进行编码,以及将向量化的对话历史和知识库储存起来;通过知识跟踪层以对话历史编码最后一个隐藏状态作为查询向量,检索相应的知识实体以及支持事实;将得到的支持事实集成到流水线架构的端到端任务型或常规的端到端任务型对话系统中。解决了端到端任务型对话系统由于检索过程的不确定性,而导致的生成系统响应的不可靠和难以解释的问题。
-
-
-
-
-
-
-
-
-