[发明专利]基于G-Transformer的机器翻译方法研究在审

专利信息
申请号: 202110421837.3 申请日: 2021-04-20
公开(公告)号: CN113051939A 公开(公告)日: 2021-06-29
发明(设计)人: 艾山·吾买尔;韩越;早克热·卡德尔;刘婉月;宜年;张大任;汪烈军;买合木提·买买提;吐尔根·依布拉音;刘胜全 申请(专利权)人: 新疆大学
主分类号: G06F40/58 分类号: G06F40/58;G06F40/126;G06N3/04
代理公司: 北京汇捷知识产权代理事务所(普通合伙) 11531 代理人: 盛君梅
地址: 830000 新疆维*** 国省代码: 新疆;65
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 transformer 机器翻译 方法 研究
【权利要求书】:

1.一种基于G-Transformer的机器翻译方法研究,其特征在于:所述基于G-Transformer的机器翻译方法研究借助循环神经网络GRU和完全的自注意力网络Tranformer进行设计,循环神经网络GRU负责对用于机器翻译的词向量进行重编码,利用循环神经网络的特性输出考虑了句子上下文信息的向量,完全的自注意力网络Tranformer负责对前者生成的词向量进行再编码,从而实现后续翻译,该基于G-Transformer的机器翻译方法研究建模过程包括如下步骤:

(1)模型由三个部分组成,用于将一种语言(源语言)翻译成另一种语言(目标语言);

(2)第一部分是一个循环神经网络GRU,主要是为词向量融入句子信息,使得输入机器翻译模型的词向量不再孤立,它的输入是表示每个单词语义信息的词向量,输出是与输入对应的融入了句子信息的向量;

第二部分是神经网络翻译模型Transformer的编码器,主要是对机器翻译中的源语言进行编码,它的输入是第一部分的输出,输出是对句子进行编码后的句子向量;

第三部分是神经网络翻译模型Transformer的解码器,主要是对编码器生成的向量进行解码生成目标语言,它的输入是第二部分的输出;

(3)第一部分的输出是第二部分的输入,第二部分的输出是第三部分的输入;

(4)神经网络翻译模型操作过程:

A准备语料:准备用于机器翻译模型训练的平行语料,并对其进行预处理;

B模型训练:将源语言的语料输入循环神经网络,将循环神经网络的输出输入Transformer编码器,将Transformer编码器的输出输入Transformer解码器;

C模型评估:使用测试集对训练的模型进行评价。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于新疆大学,未经新疆大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110421837.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top