-
公开(公告)号:CN113128214B
公开(公告)日:2022-05-06
申请号:CN202110287084.1
申请日:2021-03-17
Applicant: 重庆邮电大学 , 重庆信科设计有限公司
IPC: G06F40/284 , G06F40/30 , G06F40/253 , G06N3/04 , G06N3/08
Abstract: 本发明请求保护一种基于BERT预训练模型的文本摘要生成方法。该方法包括:将中文短本文数据集进行预处理;利用BERT双向编码特性能更好地获取全局信息,将数据送入BERT预训练模型中进行训练;将实际需要获得摘要的原文本输入BERT预训练模型,使用训练好的参数进行训练,获得最佳词向量;将得到的高质量字向量送入改进后的LeakGAN模型;文本在改进的LeakGAN中进行训练,最终得到摘要输出。本发明使生成器生成更加准确的摘要,提高了摘要的准确性和流畅性。
-
公开(公告)号:CN113128214A
公开(公告)日:2021-07-16
申请号:CN202110287084.1
申请日:2021-03-17
Applicant: 重庆邮电大学 , 重庆信科设计有限公司
IPC: G06F40/284 , G06F40/30 , G06F40/253 , G06N3/04 , G06N3/08
Abstract: 本发明请求保护一种基于BERT预训练模型的文本摘要生成方法。该方法包括:将中文短本文数据集进行预处理;利用BERT双向编码特性能更好地获取全局信息,将数据送入BERT预训练模型中进行训练;将实际需要获得摘要的原文本输入BERT预训练模型,使用训练好的参数进行训练,获得最佳词向量;将得到的高质量字向量送入改进后的LeakGAN模型;文本在改进的LeakGAN中进行训练,最终得到摘要输出。本发明使生成器生成更加准确的摘要,提高了摘要的准确性和流畅性。
-