-
公开(公告)号:CN110059323B
公开(公告)日:2023-07-11
申请号:CN201910344013.3
申请日:2019-04-22
Applicant: 苏州大学
IPC: G06F40/58 , G06F40/47 , G06N3/045 , G06N3/0455 , G06N3/0895
Abstract: 本发明公开了一种基于自注意力机制的多领域神经机器翻译方法。基于自注意力机制的多领域神经机器翻译方法,包括:对Transformer进行了两项重要的改变;第一个变化是基于领域感知的自注意力机制,其中领域表示被添加到原始的自注意力机制的键和值向量中;注意力机制的权重是查询和领域感知的键的相关程度。第二个变化是添加一个领域表示学习模块来学习领域向量。本发明的有益效果:本专利在目前代表最先进水平的神经网络架构Transformer上提出领域感知的NMT模型架构。为多领域翻译提出了一种基于领域感知的自注意力机制。据所知,这是在基于自注意力机制的多领域NMT上的首次尝试。同时,实验和分析也验证了的模型能够显著提升各领域的翻译效果并且可以学习到训练数据的领域信息。
-
公开(公告)号:CN109284511B
公开(公告)日:2023-05-16
申请号:CN201811026790.5
申请日:2018-09-04
Applicant: 苏州大学
Abstract: 本发明涉及一种主动学习平行语料构建方法,应用于低资源语言神经机器翻译,而且,应用在基于注意力机制且采用encoder‑decoder框架的NMT模型,包括:获取原始平行语料和源端单语;获取所述原始平行语料的embedding和所述源端单语的embedding;计算所述源端单语中的每句话和所述平行语料的相似度;对所述源端单语中的每句话按照相似程度进行排序,选择前面设定百分比的句子;获取上述“前面设定百分比的句子”进行人工翻译后的目标端单语;将所述人工翻译后的目标端单语和上述“前面设定百分比的句子”构成的平行语料加入到所述原始平行语料中,组成新的平行语料;用所述新的平行语料,训练出新的模型。
-
公开(公告)号:CN110263143B
公开(公告)日:2021-06-15
申请号:CN201910568228.3
申请日:2019-06-27
Applicant: 苏州大学
IPC: G06F16/332 , G06F40/284
Abstract: 本发明公开了一种提高相关性的神经问题生成方法。本发明一种提高相关性的神经问题生成方法,包括:基于seq2seq的QG模型,由encoder层和decoder组成,并加入了attention机制和copy机制;基于字符重叠的部分copy机制。本发明的有益效果:通过基于字符重叠度的部分copy机制,我们可以使得生成问题中在单词级别和输入文档具有更高的重叠度和相关性。通过基于QA模型的重排序机制,我们可以为生成的那些质量较好的候选问题赋予更高的分数,而过滤掉那些较为通用的、难以回答的问题。
-
公开(公告)号:CN108021560B
公开(公告)日:2021-04-27
申请号:CN201711282996.X
申请日:2017-12-07
Applicant: 苏州大学
Abstract: 本申请公开了一种数据增强方法,应用于神经机器翻译,包括:对双语训练语料进行词对齐处理,得到词对齐信息;根据词对齐信息确定双语训练语料中包含的最小翻译单元;按预设的向量表征计算规则对所有最小翻译单元进行计算,得到对应的向量值;利用余弦公式计算各最小翻译单元间的相似度值;判断相似度值是否超过阈值,若是,则交换超过阈值的相似度值对应的最小翻译单元在双语训练语料中的位置,得到新双语训练语料。通过此种方式可以形成新的双语语料,有效增加训练语料,且使原语料的结构信息得到丰富,实现提升神经机器翻译对低资源语种翻译质量的提高。本申请还同时公开了一种数据增强系统、装置及计算机可读存储介质,具有上述有益效果。
-
公开(公告)号:CN110263143A
公开(公告)日:2019-09-20
申请号:CN201910568228.3
申请日:2019-06-27
Applicant: 苏州大学
IPC: G06F16/332 , G06F17/27
Abstract: 本发明公开了一种提高相关性的神经问题生成方法。本发明一种提高相关性的神经问题生成方法,包括:基于seq2seq的QG模型,由encoder层和decoder组成,并加入了attention机制和copy机制;基于字符重叠的部分copy机制。本发明的有益效果:通过基于字符重叠度的部分copy机制,我们可以使得生成问题中在单词级别和输入文档具有更高的重叠度和相关性。通过基于QA模型的重排序机制,我们可以为生成的那些质量较好的候选问题赋予更高的分数,而过滤掉那些较为通用的、难以回答的问题。
-
公开(公告)号:CN110222350A
公开(公告)日:2019-09-10
申请号:CN201910577358.3
申请日:2019-06-28
Applicant: 苏州大学
Abstract: 本发明公开了一种将双语预定义翻译对融入神经机器翻译模型的方法。本发明一种将双语预定义翻译对融入神经机器翻译模型的方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,包括:目标是为了将双语预定义的翻译对(p,q)融入神经机器翻译模型,其中p出现在源端的句子中,且p需要被正确翻译为q,出现在在目标端的句子中,同时源端中的其它的词被正确翻译。本发明的有益效果:我们提出将样例引入神经机器翻译模型,以此来指导其翻译的方法,具有以下优势,1.通过使用tagging方法,使模型学习到这种模式,建立源端和目标端预定义短语对地联系,提高它们被成功翻译的可能。
-
-
公开(公告)号:CN105912533B
公开(公告)日:2019-02-12
申请号:CN201610224531.8
申请日:2016-04-12
Applicant: 苏州大学
Abstract: 本申请提供了一种面向神经机器翻译的长句切分方法,在使用NMT模型进行语句翻译前,并非直接将源语句输入NMT模型中,而是将语句切分为较短的子句,将各个子句依次输入NMT模型,以使NMT模型分别依次翻译各个切分后的子句,然后,直接将翻译后的子句拼接为完整子句。由于输入NMT模型翻译的子句较短,NMT模型的翻译准确率较高,从而提高了语句翻译的准确率。另外,本申请还提供了一种面向神经机器翻译的长句切分装置,用以保证所述方法在实际中的应用及实现。
-
公开(公告)号:CN108460029A
公开(公告)日:2018-08-28
申请号:CN201810326887.1
申请日:2018-04-12
Applicant: 苏州大学
Abstract: 本发明涉及一种面向神经机器翻译的数据缩减方法,包括:利用完整的初始语料进行第一轮训练;把上一轮平行句对的训练损失选择保留一部分损失最小的训练语料留到下一轮继续训练,其中,下一轮训练语料的大小与上一轮训练语料的大小的比值β∈﹙0,1﹚;判断已经进行的训练轮数是否小于等于预设的总的训练轮数,若是,继续返回步骤“把上一轮平行句对的训练损失选择保留一部分损失最小的训练语料留到下一轮继续训练,其中,下一轮训练语料的大小与上一轮训练语料的大小的比值β∈﹙0,1﹚”。上述面向神经机器翻译的数据缩减方法,根据现有的NMT的特性,是动态选择的,保证NMT在大规模的语料上训练同时在速度上更快,翻译质量也更好。
-
公开(公告)号:CN107729329A
公开(公告)日:2018-02-23
申请号:CN201711091457.8
申请日:2017-11-08
Applicant: 苏州大学
CPC classification number: G06F17/289 , G06N3/02
Abstract: 本发明公开了一种基于词向量连接技术的神经机器翻译方法,包括:在编码阶段,编码器获得源语句的词向量序列,根据确定的前向向量序列和反向向量序列确定源语句对应的隐层向量序列,每个源单词对应的含有上下文信息的向量表示包括该源单词对应的前向隐层状态、反向隐层状态及单词向量,可以获得上下文向量,在解码阶段,解码器预测相应源单词的目标单词,从而生成源语句的目标语句。应用本发明实施例所提供的技术方案,缩短了源端单词向量和目标端单词向量之间的信息通道,增强了单词向量之间的连接和映射,增强了翻译系统性能,提高了翻译质量。本发明还公开了一种基于词向量连接技术的神经机器翻译装置,具有相应技术效果。
-
-
-
-
-
-
-
-
-