[发明专利]神经机器翻译模型的训练方法、装置及存储介质在审
申请号: | 201910143094.0 | 申请日: | 2019-02-26 |
公开(公告)号: | CN111626065A | 公开(公告)日: | 2020-09-04 |
发明(设计)人: | 刘柏延;李一韩;姜珊珊;童毅轩;董滨 | 申请(专利权)人: | 株式会社理光 |
主分类号: | G06F40/58 | 分类号: | G06F40/58;G06F40/45;G06F40/211 |
代理公司: | 北京银龙知识产权代理有限公司 11243 | 代理人: | 黄灿;姜精斌 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经 机器翻译 模型 训练 方法 装置 存储 介质 | ||
本发明提供了一种神经机器翻译模型的训练方法、装置及存储介质。本发明实施例提供的神经机器翻译模型的训练方法、装置及存储介质,利用训练好的神经机器翻译模型获得源句子翻译后的预测句子,基于预测句子与目标句子之间N元组的匹配程度,合成新的平行语料,利用原始语料和新增语料训练神经机器翻译模型,以增强原始神经机器翻译模型未能训练充分部分的特征,从而可以提升最终训练得到的神经机器翻译模型的翻译性能。
技术领域
本发明涉及自然语言处理(NLP,Natural Language Processing)中的神经机器翻译技术领域,具体涉及一种神经机器翻译模型的训练方法、装置及存储介质。
背景技术
神经机器翻译(NMT,Neural Machine Translation)是指直接采用神经网络以端到端方式进行翻译建模的机器翻译方法。区别于利用深度学习技术完善传统统计机器翻译中某个模块的方法,神经机器翻译采用一种简单直观的方法完成翻译工作:首先使用一个称为编码器(Encoder)的神经网络将源语言句子编码为一个稠密向量,然后使用一个称为解码器(Decoder)的神经网络从该向量中解码出目标语言句子。上述神经网络模型一般称之为“编码器-解码器”(Encoder-Decoder)结构。
现有技术通常采用双语互译质量评估(BLEU,Bilingual EvaluationUnderstudy)算法来评估机器翻译质量。BLEU算法的设计思想与评判机器翻译好坏的思想是一致的,即,机器翻译结果越接近专业人工翻译的结果,则翻译质量越好。N元组(N-gram)是一种统计语言模型,该模型可以将一句话表示N个连续的单词组成的单词序列,利用上下文中相邻词间的搭配信息,计算出句子的概率,从而判断一句话是否通顺。BLEU算法采用了N-gram的匹配规则,通过它能够计算出预测译文和参考译文之间N元组相似的一个占比,进而得到机器翻译质量的评价指标。
目前,常见的NMT模型包括序列到序列(seq2seq)模型、卷积序列到序列(convS2S)模型以及transformer模型,现有技术通过对神经机器模型本身进行改进,以提升机器翻译性能。如何进一步提高现有神经机器翻译的翻译性能,使之更能准确的实现源语言和目标语言之间的翻译,是本领域亟待解决的技术问题。
发明内容
本发明实施例要解决的技术问题是提供一种神经机器翻译模型的训练方法、装置及存储介质,提高神经机器翻译的翻译性能。
为解决上述技术问题,本发明实施例提供的神经机器翻译模型的训练方法,包括:
利用第一平行语料,训练神经机器翻译模型;
通过训练得到的所述神经机器翻译模型,翻译第二平行语料中的源句子,得到与所述源句子对应的预测句子;
计算所述预测句子与所述源句子对应的目标句子的匹配度,在所述匹配度低于预设门限时,将所述源句子及所述目标句子添加至一新增平行语料;
利用所述第一平行语料和所述新增平行语料,训练神经机器翻译模型。
优选的,所述第一平行语料与所述第二平行语料之间不存在相同语料;
或者,
所述第二平行语料为所述第一平行语料中的部分或全部语料。
优选的,所述计算所述预测句子与所述源句子对应的目标句子的匹配度,在所述匹配度低于预设门限时,将所述源句子及所述目标句子添加至一新增平行语料的步骤,包括:
计算所述预测句子与所述目标句子之间相匹配的N元组的第一数量,所述N大于或等于2;
在所述第一数量小于所述预设门限时,将所述源句子及所述目标句子添加至所述新增平行语料。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于株式会社理光,未经株式会社理光许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910143094.0/2.html,转载请声明来源钻瓜专利网。