一种文本过滤模型训练方法、文本过滤方法及装置

    公开(公告)号:CN119917650A

    公开(公告)日:2025-05-02

    申请号:CN202411868325.1

    申请日:2024-12-18

    Abstract: 本发明提供一种文本过滤模型训练方法、文本过滤方法及装置,训练方法包括:将训练文本序列输入待训练的文本过滤模型中,得到目标文本序列输入至目标文本处理模型中,得到目标文本处理模型输出目标预测值;基于目标预测值及训练文本序列标签,得到目标文本损失;基于目标文本损失训练文本过滤模型,得到目标文本过滤模型。通过训练文本过滤模型进行文本过滤,实现自动文本过滤的同时,能应对较多的长文本过滤场景,降低人工成本,提高文本过滤适用范围及效率,保证目标文本处理模型拟合性,且在目标文本处理模型前增加文本过滤模型进行文本过滤,无需改变目标文本处理模型的结构来进行文本过滤任务,保证目标文本处理模型的拟合能力及处理效率。

    一种文本分类方法、装置、设备及可读存储介质

    公开(公告)号:CN114741503A

    公开(公告)日:2022-07-12

    申请号:CN202210215738.4

    申请日:2022-03-07

    Inventor: 姜卫卫 杨青

    Abstract: 本发明公开了一种文本分类方法,该方法调用包括掩码语言模型解码器、所述语义表征器以及所述分类器的训练模型,对其中的语义表征器以及掩码语言模型解码器分类器进行参数优化训练,通过掩码语言模型解码器训练语义表征能力,可以为分类器部分提供更有效的语义表征向量,从而提升了模型的语义表征能力,这样使得模型在实际应用中的语义分类数据集上的收敛速度更快,保证了训练得到的语义表征器以及掩码语言模型解码器分类器在具有更强的分类能力的同时,又保证了其泛化性,从而提升了对于待分类文本的分类效果。本发明还公开了一种文本分类装置、设备及可读存储介质,具有相应的技术效果。

Patent Agency Ranking