-
公开(公告)号:CN117764140A
公开(公告)日:2024-03-26
申请号:CN202311537070.6
申请日:2023-11-17
Applicant: 厦门大学
IPC: G06N3/0895 , G06N3/096 , G06F16/332 , G06F16/33 , G06F40/35
Abstract: 本申请公开了一种基于检索增强模型的对话查询生成模型的训练方法及装置,该方法包括获取候选查询集,并将其中每个候选查询依次输入到搜索引擎,以便得到每个候选查询对应的知识文档;构建检索增强对话回复生成模型,并根据对话上下文和每个候选查询对应的知识文档对构建检索增强对话回复生成模型进行训练;采用训练好的检索增强对话回复生成模型中的检索器对每个候选查询对应的知识文档进行打分,以得到每个候选查询对应的分数值;构建对话查询生成模型,并根据对话上下文、每个候选查询和每个候选查询对应的分数值对对话查询生成模型进行训练,以得到训练好的对话查询生成模型;从而能够考虑深度语义信息,降低噪声影响,以便提高模型性能。
-
公开(公告)号:CN118313482A
公开(公告)日:2024-07-09
申请号:CN202410428647.8
申请日:2024-04-10
Applicant: 厦门大学 , 上海人工智能创新中心
IPC: G06N20/00 , G06F18/23213
Abstract: 本申请的实施例提供了一种大语言模型的持续学习训练方法、装置、介质及设备。该方法包括:获取由基座大语言模型基于与各历史训练阶段的训练数据相关的实例生成的第一合成实例集合,第一合成实例集合包括若干第一合成实例;将每一第一合成实例的第一指令输入输入至待优化大语言模型中,以使待优化大语言模型输出对应的第二响应输出,得到包含若干第二合成实例的第二合成实例集合;基于第二合成实例集合以及当前训练阶段的训练数据,构建增强训练数据以对待优化大语言模型进行优化,得到目标大语言模型。本申请实施例的技术方案可以摆脱对先前训练阶段的训练数据的依赖,兼顾大语言模型的新旧知识,保证大语言模型的持续学习效果。
-
公开(公告)号:CN117591871A
公开(公告)日:2024-02-23
申请号:CN202311363517.2
申请日:2023-10-20
Applicant: 厦门大学
IPC: G06F18/214 , G06N20/00 , G06F16/332 , G06N5/04
Abstract: 本申请公开了一种基于回复增强的对话查询生成模型的训练方法及装置,该方法包括,获取训练集;构建第一语言模型和第二语言模型,采用训练集训练第一语言模型和第二语言模型以得到查询生成模型和回复增强查询生成模型;通过查询生成模型生成查询集,回复增强查询生成模型生成伪查询;根据查询集和伪查询得到对应的相似度分数,根据相似度分数构造伪实例,根据伪实例对查询生成模型和回复增强查询生成模型进行第二阶段训练;接着利用回复增强查询生成模型为查询生成模型采样得到的候选查询打分以得到奖励分数,以便根据奖励分数对查询生成模型进行第三阶段的强化学习训练;由此,训练完成的查询生成模型可以得到更准确的对话查询。
-
-