-
公开(公告)号:CN119248234A
公开(公告)日:2025-01-03
申请号:CN202411286404.1
申请日:2024-09-13
Applicant: 湖南大学
Abstract: 本发明公开了一种基于LoRA改进的大语言模型微调方法,包括:获取大模型的权重文件,并依据所需的垂直领域和下游任务获取训练数据集;搭建微调的平台;获取开源的LoRA代码,对所述开源的LoRA代码进行修改,获得修改后的代码;利用所述训练数据集和修改好的代码对选定的大模型进行微调,微调完成后将输出的LoRA模块加载到原模型的权重矩阵上,从而使得大模型拥有更好完成具体下游任务的能力。本发明降低了LoRA在微调过程中训练的参数量。