基于增强拒绝采样训练的大语言模型对齐微调方法和系统

    公开(公告)号:CN117852616B

    公开(公告)日:2024-05-31

    申请号:CN202410229872.9

    申请日:2024-02-29

    Abstract: 本发明公开了一种基于增强拒绝采样训练的大语言模型对齐微调方法和系统,涉及人工智能技术领域,包括:基于有监督微调后的大语言模型,为预设指令请求文本生成N条响应文本;基于训练好的奖励模型对每条响应文本进行评估,得到奖励分数;将N条响应文本按照对应的奖励分数由高到低排序,并选取前k条响应文本组成目标样本集;基于预设加权函数,计算每条响应文本对应的数据权重;基于预设指令请求文本、目标样本集中的响应文本和数据权重构建加权微调数据集,并基于加权微调数据集对有监督微调后的大语言模型进行对齐微调,得到目标大语言模型。本发明缓解了现有技术存在的过拟合风险高、易受有噪奖励分数干扰的技术问题。

    基于增强拒绝采样训练的大语言模型对齐微调方法和系统

    公开(公告)号:CN117852616A

    公开(公告)日:2024-04-09

    申请号:CN202410229872.9

    申请日:2024-02-29

    Abstract: 本发明公开了一种基于增强拒绝采样训练的大语言模型对齐微调方法和系统,涉及人工智能技术领域,包括:基于有监督微调后的大语言模型,为预设指令请求文本生成N条响应文本;基于训练好的奖励模型对每条响应文本进行评估,得到奖励分数;将N条响应文本按照对应的奖励分数由高到低排序,并选取前k条响应文本组成目标样本集;基于预设加权函数,计算每条响应文本对应的数据权重;基于预设指令请求文本、目标样本集中的响应文本和数据权重构建加权微调数据集,并基于加权微调数据集对有监督微调后的大语言模型进行对齐微调,得到目标大语言模型。本发明缓解了现有技术存在的过拟合风险高、易受有噪奖励分数干扰的技术问题。

Patent Agency Ranking