[发明专利]将双语预定义翻译对融入神经机器翻译模型的方法在审
申请号: | 201910577358.3 | 申请日: | 2019-06-28 |
公开(公告)号: | CN110222350A | 公开(公告)日: | 2019-09-10 |
发明(设计)人: | 熊德意;王涛 | 申请(专利权)人: | 苏州大学 |
主分类号: | G06F17/28 | 分类号: | G06F17/28;G06N20/00 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 苏张林 |
地址: | 215168 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 机器翻译 翻译 预定义 神经 融入 源端 句子 注意力机制 短语 模型学习 目标端 引入 应用 成功 | ||
1.一种将双语预定义翻译对融入神经机器翻译模型的方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,其特征在于,包括:目标是为了将双语预定义的翻译对(p,q)融入神经机器翻译模型,其中p出现在源端的句子中,且p需要被正确翻译为q,出现在在目标端的句子中,同时源端中的其它的词被正确翻译。
将训练语料中的出现的p和q用特殊的标签<start>和<end>包围;标签<start>和<end>和词典中的其他词一样,其向量表示都是随机初始化的,在训练过程中,逐渐学习参数;使用tagging的目的是为了根据这种相同的模式在p和q之间建立一种联系,同时使得q连续地出现而不会中断。
2.一种将双语预定义翻译对融入神经机器翻译模型的方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,其特征在于,包括:目标是为了将双语预定义的翻译对(p,q)融入神经机器翻译模型,其中p出现在源端的句子中,且p需要被正确翻译为q,出现在在目标端的句子中,同时源端中的其它的词被正确翻译;
提出使用q来增强p;可以看到,除了tagging中的<start>和<end>之外,在源端还使用了<middle>标签;源端同时包含了p和q的信息,这样NMT模型不仅可以学到“p”到“q”的翻译,同时还可以学习遇到“q”时可以直接拷贝过去,而不用翻译;当翻译语料中出现次数较少的词时,模型可能很难学到对应的翻译,此时通过拷贝可以更好地翻译。
3.一种将双语预定义翻译对融入神经机器翻译模型的方法,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,其特征在于,包括:目标是为了将双语预定义的翻译对(p,q)融入神经机器翻译模型,其中p出现在源端的句子中,且p需要被正确翻译为q,出现在在目标端的句子中,同时源端中的其它的词被正确翻译;
没有对数据进行修改,而是对模型进行了轻微地修改。同样以“我爱<start>香港<middle>hong kong<end>”为例(extra embeddings只在encoder端使用,所以与目标端无关),这8个词可以视为标记序列“n n n s n t t n”,其中s和t分别表示预定义的翻译对p和q,n表示其它的普通的词;然后根据每个词对应的标记,在每个词对应的词向量上,加上对应的向量。
4.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1到3任一项所述方法的步骤。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1到3任一项所述方法的步骤。
6.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1到3任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州大学,未经苏州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910577358.3/1.html,转载请声明来源钻瓜专利网。