专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果10个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于预训练模型的词对齐性能提升方法-CN202110695209.4有效
  • 徐萍;姜炎宏;毕东;宁义明 - 沈阳雅译网络技术有限公司
  • 2021-06-23 - 2023-09-01 - G06F40/216
  • 本发明公开一种基于预训练模型的词对齐性能提升方法,步骤为:使用预训练模型获取句子中词语的词向量,构成互译句对的词向量矩阵X和Y;对词向量矩阵X和Y进行短语和术语的抽取,把短语和术语中的词的词向量进行加和平均处理,获得更新后的互译句对词向量矩阵X和Y;将词语和词语之间的词向量余弦计算值作为两个词之间的相似度,获得互译句对的相似度矩阵Sim;对Sim进行卷积操作,使得词对齐融入上下文词的信息;使用不同的词对齐抽取方法分别从更新后的互译句对相似度矩阵中抽取对应的词对齐信息。本发明通过基于预训练方法解决了深度学习需要训练数据大的问题,使用短语和术语表进行匹配,来解决预训练中词语之间相关度不大,而导致词语之间对齐不统一的问题。
  • 一种基于训练模型对齐性能提升方法
  • [发明专利]一种基于网络结构搜索的图像描述生成方法-CN202310157738.8在审
  • 刘兴宇;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2023-02-23 - 2023-05-09 - G06V10/764
  • 本发明公开一种基于网络结构搜索的图像描述生成方法,包括以下步骤:使用网络结构优化方法基于图像分类任务搜索卷积单元,获得普通卷积与规约池化单元结构;使用搜索出的单元结构构建出模型结构,并将模型结构基于图像分类数据集进行训练;使用搜索训练得到的卷积单元模型结构构建视觉注意力模型,应用于图像描述生成任务;基于束搜索对得到的上述应用于图像描述生成任务的视觉注意力模型进行解码与评估,实现图像描述的生成。本发明解决了当前网络结构搜索技术在各领域重量级任务上应用不足的问题,成功地将网络结构优化方法基于轻量级图像分类任务搜索的卷积结构单元应用到更复杂的图像理解任务中,有效减少模型的参数量,提升相应任务的性能。
  • 一种基于网络结构搜索图像描述生成方法
  • [发明专利]一种基于共享词典的低资源神经机器翻译系统的构建方法-CN202211481742.1在审
  • 刘兴宇;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2022-11-24 - 2023-03-14 - G06F40/47
  • 本发明公开一种基于共享词典的低资源神经机器翻译系统的构建方法,步骤为:从互联网中获取开源的低资源机器翻译数据;对获得的低资源机器翻译数据进行预处理,得到去除噪声的双语数据;利用双语数据挖掘共享双语词典;利用共享双语词典扩展生成伪双语数据;使用所有双语数据基于Fairseq开源系统完成低资源神经机器翻译模型的搭建;使用双语词典作译后处理;将低资源神经机器翻译模型进行封装,部署到服务器上,进行线上服务,完成整个神经机器翻译系统的搭建。本发明通过共享双语词典缓解了低资源机器翻译面临的数据稀缺问题,使训练一个低资源神经机器翻译模型成为了可能,可以很好地解决低资源机器翻译的不译问题,使译文更流畅。
  • 一种基于共享词典资源神经机器翻译系统构建方法
  • [发明专利]一种基于迭代降维的词典翻译方法-CN202210267120.2在审
  • 杨迪;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2022-03-17 - 2022-07-08 - G06F40/58
  • 本发明公开一种基于迭代降维的词典翻译方法,步骤为:收集两个语种的单语语料,分别进行分词后得到训练数据,并训练出两个语种的词嵌入空间;将两个单语词嵌入分别进行降维至规定阈值的维度;将降维后的词嵌入输入无监督词典翻译算法中进行训练,保存两个共享词嵌入空间;以CSLS作为度量距离在两个共享词嵌入空间推断出词频在规定阈值以上的互译词典;以互译词典以及降维的词嵌入输入到监督词典翻译算法中进行训练,模型收敛后保存两个共享词嵌入空间;重复上述步骤直到模型收敛,从两个共享的词嵌入中进行词典翻译,得到最终的双语词典。本发明可有效提高许多远距离语言对词典翻译的准确率,可以广泛应用于机器翻译、知识挖掘等下游任务中。
  • 一种基于迭代降维词典翻译方法
  • [发明专利]一种应用于稳定深层机器翻译模型的机器翻译方法-CN202210126056.6在审
  • 刘兴宇;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2022-02-10 - 2022-05-24 - G06F40/58
  • 本发明公开一种应用于稳定深层机器翻译模型的机器翻译方法,步骤为:在深层模型的训练过程中,根据输入源语句子X进行每一次反向传播计算时,为深层模型中编码器部分参数的梯度矩阵G设置两个矩阵μ与σ;使用矩阵μ与σ分别代表梯度矩阵G的均值与标准差,并根据梯度矩阵G计算出矩阵μ与σ的值;在模型训练期间的每一次反向传播过程中,使用矩阵μ与σ对梯度矩阵G进行标准化;通过预设的策略与先验知识来控制该标准化的使用阶段和位置,进行机器翻译模型的快速准确训练,最终提升解码时的输出译文的译文质量。本发明可以使得训练过程更加稳定,并且不受限于具体的模型与任务,具有很好的通用性,使模型的效果更加容易在不同的设备上重现。
  • 一种应用于稳定深层机器翻译模型方法
  • [发明专利]一种多领域神经机器翻译性能提升方法-CN202111493216.2在审
  • 杨迪;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2021-12-08 - 2022-03-04 - G06F40/58
  • 本发明公开一种多领域神经机器翻译性能提升方法,步骤为:爬取海量数据作为模型训练语料,分为特定领域语料库和多领域平行语料库;计算多领域平行语料库中每个句子与各个特定领域语料库的相似度;从多领域平行语料库中筛选与多个特定领域语料库平均相似度高的句子作为多领域模型的训练集;构建多领域深层神经机器翻译模型和多个特定领域的深层神经机器翻译模型进行训练并存储模型参数;计算各个特定领域语料库与多领域平行语料库的相似度,对多领域模型和各个特定领域模型进行循环知识精炼,最终得到性能提升的多领域神经机器翻译模型。本发明方法减少了训练过程中不同领域间的干扰,最终达到提升多领域神经机器翻译模型的翻译性能的目的。
  • 一种领域神经机器翻译性能提升方法
  • [发明专利]一种加快小型智能移动设备中翻译软件运行速度的方法-CN202111314987.0在审
  • 徐萍;毕东;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2021-11-08 - 2022-03-01 - G06F40/58
  • 本发明公开一种加快小型智能移动设备中翻译软件运行速度的方法,步骤为:获取训练数据,处理并训练得到基于自注意力机制的神经机器翻译模型,其训练过程与标准的自注意力机制机器翻译模型训练方法一致;构建自动剪枝器,其输入为大规模的神经机器翻译模型,输出为剪枝后小规模的神经机器翻译模型,通过训练自动剪枝器将大模型中对模型性能影响不大的结构剪去,得到与原模型性能相近甚至推理速度更快的剪枝后模型;将剪枝后模型进行封装,应用到小型智能移动设备中。本发明在模型性能几乎没有下降的前提下,降低了翻译模型的存储大小和内存占用,提高了翻译软件在小型智能移动设备中的运行速度,解决了小型智能移动设备容易卡顿的问题。
  • 一种加快小型智能移动设备翻译软件运行速度方法
  • [发明专利]一种用单一网络模型实现多个语种之间互译的方法-CN202110792719.3在审
  • 刘兴宇;姜炎宏;杨木润 - 沈阳雅译网络技术有限公司
  • 2021-07-14 - 2021-10-26 - G06F40/58
  • 本发明公开一种用单一网络模型实现多个语种之间互译的方法,步骤为:获取互联网中英语与阿拉伯语、德语、西班牙语、波斯语之间相互翻译的双语数据集;对双语数据进行数据清洗得到预处理后的双语数据;对预处理后的双语数据使用加目标语标签的方法构建多语言双语平行语料库;使用构建好的双语平行语料库基于Fairseq开源系统构建多语种分析器,并训练多语言神经机器翻译模型;将训练完成的多语言神经机器翻译模型进行封装,与网页接口进行整合,部署到线上,完成多语言神经机器翻译系统的搭建。本发明使用来自多个语言对数据的训练模型可帮助模型从多个“源”获得“知识”;多语言神经翻译系统具有更好的泛化能力,从而能够提高翻译质量。
  • 一种单一网络模型实现语种之间方法
  • [发明专利]面向小型CPU设备的神经机器翻译系统解码加速方法-CN202110861073.X在审
  • 杜权;徐萍;姜炎宏 - 沈阳雅译网络技术有限公司
  • 2021-07-29 - 2021-10-15 - G06F40/58
  • 本发明公开一种面向小型CPU设备的神经机器翻译系统解码加速方法,步骤为:构建训练平行语料及基于注意力机制的神经机器翻译的模型,利用平行语料生成机器翻译词表,进一步训练得到训练收敛后的模型作为对比的基线模型,用于和改进后模型进行对比;将注意力神经机器翻译模型中多头注意力模块中多头变为单头,进一步训练得到训练收敛后的模型作为对比的单头模型;将注意力神经机器翻译模型中多头注意力模块中多头变为单头后,其余部分的头由此单头和一个轻量级线性变换计算获得,减少注意力模块中的计算量,达到解码加速的目的。本发明能够在多个机器翻译任务数据集上显著加速模型CPU解码速度,并保证模型的性能没有明显下降。
  • 面向小型cpu设备神经机器翻译系统解码加速方法
  • [发明专利]一种面向神经机器翻译的数据选择及训练方法-CN202110868021.5在审
  • 刘兴宇;姜炎宏;杨木润 - 沈阳雅译网络技术有限公司
  • 2021-07-30 - 2021-10-15 - G06F40/126
  • 本发明公开一种面向神经机器翻译的数据选择及训练方法,步骤为:构建单语语料库;对单语语料进行清洗过滤、分词、子词切分预处理,作为训练数据;使用训练数据通过语言模型微调预训练模型;将两种语言的单语数据输入编码,比较编码的两种单语的向量相似度,将相似度最高的两句并入伪双语数据中,构建伪平行语料;使用预训练模型的分词和子词切分方法处理伪平行语料,使用预训练模型初始化神经机器翻译框架的编码器参数;使用处理后的伪平行语料对神经机器翻译模型进行预训练;使用真正的双语数据微调神经机器翻译模型。本发明解决了低资源语言双语数据不足的问题,将预训练模型应用于神经机器翻译模型中,加快模型的收敛速度,提高模型的鲁棒性。
  • 一种面向神经机器翻译数据选择训练方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top