-
公开(公告)号:CN111652004B
公开(公告)日:2022-07-05
申请号:CN202010388547.9
申请日:2020-05-09
Applicant: 清华大学
IPC: G06F40/58 , G06K9/62 , G06F30/27 , G06F111/08
Abstract: 本发明实施例提供一种用于机器翻译系统的融合方法及装置。该方法包括:获取源语句和若干待融合翻译草稿,建立机器翻译系统融合任务模型;在机器翻译系统融合任务模型中定义编码器,得到源语句编码结果和翻译草稿编码结果,并作为解码器的输入,得到目标翻译概率;基于目标翻译概率,引入投票机制,使若干待融合翻译草稿中的词进行相互投票,得到出现在若干待融合翻译草稿中的高频词;综合所有高频词结果,得到目标翻译结果。本发明实施例通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。
-
公开(公告)号:CN114936567B
公开(公告)日:2024-06-11
申请号:CN202210588770.7
申请日:2022-05-26
Applicant: 清华大学
IPC: G06F40/58 , G06Q10/063 , G06N3/088 , G06N3/082 , G06N3/0495 , G06N3/045
Abstract: 本发明涉及一种基于知识蒸馏的无监督机器翻译质量预估方法和装置,包括:将大/小规模多语言机器翻译译文质量预估模型作为教师模型/学生模型,收集各预设语言对下的双语数据;其中,双语数据由相应语言对下的原文和机器翻译译文构成;利用教师模型,对每一个双语数据进行知识蒸馏,得到每一个双语数据中机器翻译译文的翻译质量;基于每一个双语数据以及每一个双语数据中机器翻译译文的翻译质量构建学生模型;借助学生模型实现对目标机器翻译译文的翻译质量预估。本发明利用教师模型对每一个双语数据进行蒸馏,以蒸馏后的数据训练学生模型,以使学生模型具备高性能且能在计算和存储资源受限的条件下部署。
-
公开(公告)号:CN111652004A
公开(公告)日:2020-09-11
申请号:CN202010388547.9
申请日:2020-05-09
Applicant: 清华大学
IPC: G06F40/58 , G06K9/62 , G06F30/27 , G06F111/08
Abstract: 本发明实施例提供一种用于机器翻译系统的融合方法及装置。该方法包括:获取源语句和若干待融合翻译草稿,建立机器翻译系统融合任务模型;在机器翻译系统融合任务模型中定义编码器,得到源语句编码结果和翻译草稿编码结果,并作为解码器的输入,得到目标翻译概率;基于目标翻译概率,引入投票机制,使若干待融合翻译草稿中的词进行相互投票,得到出现在若干待融合翻译草稿中的高频词;综合所有高频词结果,得到目标翻译结果。本发明实施例通过将投票机制引入基于深度神经网络的机器翻译系统融合方法中,既能更好地综合各翻译系统的翻译结果,同时使用端到端神经网络方法能降低错误传播,从而改善翻译的最终质量,具有良好的实用性。
-
公开(公告)号:CN115270823A
公开(公告)日:2022-11-01
申请号:CN202210714234.7
申请日:2022-06-22
Applicant: 清华大学
Abstract: 本发明提供一种基于预训练编码网络的机器翻译方法及装置,其中的机器翻译方法包括:获取目标语言数据集以及双语平行数据集;基于机器翻译任务和降噪自编码任务,利用目标语言数据集和双语平行数据集对原始机器翻译模型进行训练,得到机器翻译模型;原始机器翻译模型包括预训练编码网络、适配网络和解码网络;将待翻译源语言数据输入至机器翻译模型,得到机器翻译结果。该方法并未使用伪平行数据,不会存在现有技术中噪声引入的问题,并且,在编码网络和解码网络的基础上引入了适配网络,通过充分有效地利用大规模单语数据,大大提升了机器翻译的翻译质量和效率。
-
公开(公告)号:CN114936567A
公开(公告)日:2022-08-23
申请号:CN202210588770.7
申请日:2022-05-26
Applicant: 清华大学
Abstract: 本发明涉及一种基于知识蒸馏的无监督机器翻译质量预估方法和装置,包括:将大/小规模多语言机器翻译译文质量预估模型作为教师模型/学生模型,收集各预设语言对下的双语数据;其中,双语数据由相应语言对下的原文和机器翻译译文构成;利用教师模型,对每一个双语数据进行知识蒸馏,得到每一个双语数据中机器翻译译文的翻译质量;基于每一个双语数据以及每一个双语数据中机器翻译译文的翻译质量构建学生模型;借助学生模型实现对目标机器翻译译文的翻译质量预估。本发明利用教师模型对每一个双语数据进行蒸馏,以蒸馏后的数据训练学生模型,以使学生模型具备高性能且能在计算和存储资源受限的条件下部署。
-
-
-
-