-
公开(公告)号:CN120069121A
公开(公告)日:2025-05-30
申请号:CN202411967383.X
申请日:2024-12-30
Applicant: 度小满科技(北京)有限公司
IPC: G06N20/00
Abstract: 本发明提供一种模型训练方法、装置、存储介质及电子设备,该方法包括:获取第一模型,以及获取训练数据集;调用第一模型,分别确定训练数据集中每个训练数据的模型运行结果;并基于每个训练数据的模型运行结果,计算各个模型参数在当前迭代下的一阶梯度;确定各个模型参数在上一次迭代下的一阶梯度,并基于各个模型参数在上一次迭代下的一阶梯度和各个模型参数在当前迭代下的一阶梯度,分别计算各个模型参数在当前迭代下的二阶梯度;基于各个模型参数在当前迭代下的一阶梯度和二阶梯度,分别计算各个模型参数在当前迭代下的模型参数值,以得到第二模型,从而基于第二模型,确定目标模型。本发明实施例可提高模型训练的效率。
-
公开(公告)号:CN119917650A
公开(公告)日:2025-05-02
申请号:CN202411868325.1
申请日:2024-12-18
Applicant: 度小满科技(北京)有限公司
IPC: G06F16/335 , G06F16/334 , G06F16/353 , G06N3/0464 , G06N3/0455
Abstract: 本发明提供一种文本过滤模型训练方法、文本过滤方法及装置,训练方法包括:将训练文本序列输入待训练的文本过滤模型中,得到目标文本序列输入至目标文本处理模型中,得到目标文本处理模型输出目标预测值;基于目标预测值及训练文本序列标签,得到目标文本损失;基于目标文本损失训练文本过滤模型,得到目标文本过滤模型。通过训练文本过滤模型进行文本过滤,实现自动文本过滤的同时,能应对较多的长文本过滤场景,降低人工成本,提高文本过滤适用范围及效率,保证目标文本处理模型拟合性,且在目标文本处理模型前增加文本过滤模型进行文本过滤,无需改变目标文本处理模型的结构来进行文本过滤任务,保证目标文本处理模型的拟合能力及处理效率。
-