专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果177个,建议您升级VIP下载更多相关专利
  • [发明专利]一种含有脂溶性活性成分的剂及其应用-CN202310849973.1在审
  • 请求不公布姓名 - 杜权
  • 2023-07-12 - 2023-10-24 - A23L33/17
  • 本发明公开了一种含有脂溶性活性成分的剂,所述剂包括脂溶性活性成分和分散载体组合物,所述分散载体组合物包括可经消化道消化吸收的蛋白类营养素和/或可经消化道消化吸收的碳水类营养素;所述脂溶性活性成分可选自有益的油脂、脂溶性治疗剂/预防剂。利用可消化吸收的营养素作为脂溶性活性成分的分散载体,能极大地改善脂溶性活性成分的消化吸收效率。与现有技术产品相比,本发明提供的含有脂溶性活性成分的剂能够更好地被生物体消化吸收,具有更高的生物利用度,能显著降低消费者的使用剂量和费用。
  • 一种含有脂溶性活性成分及其应用
  • [发明专利]分离的益生菌被膜及其应用-CN202210370317.9在审
  • 杜权 - 杜权
  • 2022-04-09 - 2023-10-24 - C12N1/20
  • 本发明属于酶制剂领域,具体公开了一种结合有营养素水解的益生菌被膜的制备方法及其应用。益生菌是一类对人体健康有益的活性微生物的总称,被广泛应用于乳制品发酵领域。发酵过程中,与益生菌被膜结合的营养素水解酶通过水解牛乳中的乳清蛋白、酪蛋白等营养物质,不仅能产生具有独特感官和生物活性的短肽,还能显著降低牛乳成分的致敏性。本发明提出利用物理、化学或生物学方法裂解益生菌,获得益生菌被膜或部分被膜结构以及其上结合的蛋白水解酶、乳糖水解酶等营养成分水解酶类,以细菌被膜结构作为这些水解酶的天然固定化载体,用于营养成分的预消化过程。
  • 分离益生菌被膜及其应用
  • [发明专利]一种基于辅助表示融合的非自回归神经机器翻译方法-CN202110592517.4有效
  • 杜权;刘兴宇 - 沈阳雅译网络技术有限公司
  • 2021-05-28 - 2023-09-05 - G06F40/58
  • 本发明公开一种基于辅助表示融合的非自回归神经机器翻译方法,步骤为:构造自回归神经机器翻译模型;构建训练平行语料,训练一个只有一层解码器的模型;构造非自回归神经机器翻译模型;将自回归神经机器翻译模型解码器最顶层的前馈神经网络后的输出与非自回归神经机器翻译模型编码器的顶层表示进行加权融合,作为非自回归神经机器翻译模型解码器的输入;编码器提取源语句子信息,解码器根据该源语句子信息来预测对应的目标语句子;完成非自回归神经机器翻译模型的训练;将源语句子送入非自回归神经机器翻译模型中,解码出不同长度的翻译结果。本发明结合自回归模型和非自回归模型的优点,在损失了较小性能的情况下,能够获得7~9倍的速度提升。
  • 一种基于辅助表示融合回归神经机器翻译方法
  • [发明专利]一种基于小型智能移动设备的机器翻译解码加速方法-CN202011212054.6有效
  • 杜权;徐萍 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-22 - G06F40/58
  • 本发明公开一种基于小型智能移动设备的机器翻译解码加速方法,步骤为:1)构建训练平行语料及基于注意力机制的神经机器翻译模型,利用平行语料生成机器翻译词表,进一步训练得到训练收敛后的模型作为对比的基线模型;2)将神经机器翻译模型中解码端的三个子层合为一个,增强模型的并行能力,到达解码加速的目的;3)解码改进后的神经机器翻译模型,计算解码加速倍数;4)将改进后的神经机器翻译模型运行于小型智能移动设备中。本发明应用于小型智能移动设备中,通过改进基于自注意力机制的机器翻译模型结构,将机器翻译解码端的多个子层进行融合,从而提高模型的并行能力,能够加速机器翻译的解码过程。
  • 一种基于小型智能移动设备机器翻译解码加速方法
  • [发明专利]一种多语言神经机器翻译性能提升方法-CN202011212799.2有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-22 - G06F40/58
  • 本发明公开一种多语言神经机器翻译性能提升方法,构建多语言平行语料库和基于注意力机制的多语言多层神经机器翻译模型进行训练,得到训多语言多层神经机器翻译模型;将不同语言相似语义句子输入到中不同训练轮数存储的模型中;利用余弦相似度计算其两两之间相似度;去除最低层和最顶层之外的层在训练过程中相似度的变化;根据相似度选择得出的相似度最低的一层;根据多语言平行语料库及多层多语言神经机器翻译模型,训练到轮数后停止,选取根据步骤5)中得到层数,为每一种语言重复这一层参数,继续训练并且每个语种独享这一层参数,直到模型收敛停止。本发明减少训练过程中语言间的干扰,最终达到提升多语言神经机器翻译模型的翻译性能的目的。
  • 一种语言神经机器翻译性能提升方法
  • [发明专利]一种基于多语言模型的低资源语言生成伪数据的方法-CN202110397096.X有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2021-04-13 - 2023-08-22 - G06F40/58
  • 本发明公开一种基于多语言模型的低资源语言生成伪数据的方法,步骤为:获取小语种单语和双语数据及与其相同或邻近语系的双语数据,经预处理得到双语训练数据,进一步得到多语言模型;对小语种源语言单语数据进行预处理得到单语训练数据;对单语训练数据进行解码得到小语种目标语言单语伪数据;对目标语言单语伪数据和源语言单语训练数据进行处理得到双语伪数据,与目标语到源语多语言模型的训练数据进行整合并处理得到新的目标语到源语双语训练数据,最终迭代到模型性能不再提升为止。本发明将小语种相同或邻近语系的双语数据融入到模型训练中,不仅增大了模型训练的数据量,而且将同语系或邻近语系的语言特征融合到模型之中,从而提升模型性能。
  • 一种基于语言模型资源生成数据方法
  • [发明专利]一种应用于小型机器翻译设备的模型压缩方法-CN202011212785.0有效
  • 徐萍;杜权 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-18 - G06F40/58
  • 本发明公开一种将机器翻译模型压缩至小型设备中的压缩方法,在大型计算设备中,为翻译模型中除嵌入层以外的参数矩阵W创建一个与W具有同样维度的且值为0或1的矩阵C;使用二值化后的参数进行模型训练;将模型中的参数量化为二值结果存入矩阵C中,对模型参数的梯度更新矩阵C;训练模型直到获得最优的矩阵C时停止训练,将矩阵C与其对应的参数矩阵W做点乘,得到新的参数矩阵W′;在小型机器翻译设备中使用剪枝得到的小模型将大幅提升小型机器翻译设备的翻译质量,并且可以拥有与原始模型相同的翻译速度。本发明压缩方法在机器翻译上使用二值网络学习剪枝结构,在学习矩阵C的同时固定模型参数,这使得可以在一个未训练的模型上找到一个较为有效的剪枝网络。
  • 一种应用于小型机器翻译设备模型压缩方法
  • [发明专利]一种基于神经网络结构搜索的机器翻译译文质量评估方法-CN202110414498.6有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2021-04-16 - 2023-08-15 - G06F40/51
  • 本发明公开一种基于神经网络结构搜索的机器翻译译文质量评估方法,步骤为:获取WMT质量评估任务的训练数据和WMT机器翻译任务中的训练数据;确定预测器‑评估器模型中的预测器组件,使用基于进化算法的搜索策略进行预搜索;搭建经典的预测器‑评估器模型,实行基于进化算法的搜索策略的最初使用Transformer神经机器翻译模型来热启动初始化种群;使用基于进化算法的搜索策略进行预搜索;对预测器部分的网络结构进行微调及训练调优;使用完整模型进行质量评估的单词级任务,并使用其在测试集上的准确度表征模型性能。本发明利用网络结构搜索技术,针对质量评估的任务和数据特性为预测器组件量身定制网络结构。
  • 一种基于神经网络结构搜索机器翻译译文质量评估方法
  • [发明专利]一种中英互译的神经机器翻译模型的压缩方法-CN202011212043.8有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-15 - G06F40/58
  • 本发明公开一种中英互译的神经机器翻译模型的压缩方法,随机初始化神经机器翻译模型的参数;通过在模型训练的目标函数中增加一个关于通道中缩放因子的L1正则项,输入语料库中的平行双语数据,对平行双语数据进行分词,利用分词后的平行双语数据训练一个缩放因子层较正常神经机器翻译模型更为稀疏的神经机器翻译模型;根据设定的压缩比例,对神经机器翻译模型中缩放因子小于上述压缩比例的通道进行裁剪;输入分词后的平行双语数据,对裁剪后的神经机器翻译模型进行参数调优,并继续训练到收敛为止,以此达到恢复神经机器翻译模型能力的目的。本发明方法在机器翻译上通过改进神经机器翻译模型的目标函数,最终达到减小模型参数大小的目的。
  • 一种中英互译神经机器翻译模型压缩方法
  • [发明专利]一种基于解码器输入增强的非自回归神经机器翻译方法-CN202110592520.6有效
  • 杜权;徐萍;杨迪 - 沈阳雅译网络技术有限公司
  • 2021-05-28 - 2023-08-15 - G06F40/58
  • 本发明公开一种基于解码器输入增强的非自回归神经机器翻译方法,步骤为:构造非自回归神经机器翻译模型;构建双语混合预训练模型;将双语混合句子作为编码器的输入,通过解码器来预测编码器中被替换的片段;用双语混合预训练模型编码器的词嵌入初始化非自回归神经机器翻译模型编码器和解码器的词嵌入;构建训练平行语料,生成机器翻译词表;通过解码器预测对应的目标语句子;计算预测出的分布与真实数据分布的差异,完成非自回归神经机器翻译模型的训练过程;将源语句子送入非自回归神经机器翻译模型中。本发明通过词典替换的方式将源语与目标语的表示映射到了同一的词义空间下,丰富了词向量的表达能力,可被非自回归神经机器翻译模型更好利用。
  • 一种基于解码器输入增强回归神经机器翻译方法
  • [发明专利]用于小型移动设备的深层神经机器翻译模型的压缩方法-CN202011212808.8有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-15 - G06F40/58
  • 本发明公开一种用于小型移动设备的深层神经机器翻译模型的压缩方法,步骤为:构建双语平行句对并转换为句子序列作为模型的输入;构建基于深层Transformer模型;使用构造的双语平行句对训练引入分组扰动策略的深层Transformer模型至收敛,作为教师模型;对教师模型进行采样,重组构建一个新的浅层Transformer模型作为压缩之后的中间子模型;使用教师模型对双语平行训练数据中的源语进行解码翻译,得到知识精炼数据;使用知识精炼数据微调从教师模型中采样得到的子模型至模型收敛作为最终结果用于小型移动设备。本发明方法进一步提高子模型的性能,在几乎不损失性能的情况下将编码端层数压缩至教师模型的1/8。
  • 用于小型移动设备深层神经机器翻译模型压缩方法
  • [发明专利]一种基于图像描述生成的多模态机器翻译数据增强方法-CN202011212067.3有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2020-11-03 - 2023-08-08 - G06F40/58
  • 本发明公开一种基于图像描述生成的多模态机器翻译数据增强方法,其步骤为:用预训练好的图像编码信息和对应的图像描述,训练基于注意力机制的图像描述生成模型;用训练好的图像描述生成模型,对已有的多模态训练数据中的图片进行编码和解码,生成对应的源语图像描述文本;将生成的源语图像描述文本翻译成目标语,构造伪数据;将构造的伪数据添加进多模态训练数据中,将多模态训练数据中的图片信息与源语描述信息进行融合,送入多模态机器翻译模型中,采用自回归的方式,生成辅以图像上下文信息的目标语译文。本发明丰富了伪数据的多样性,能从知识精炼中获得性能的提升,相较于普通的采用随即替换等方式的数据增强方法,有着较大的优势。
  • 一种基于图像描述生成多模态机器翻译数据增强方法
  • [发明专利]一种基于堆叠算法的神经机器翻译系统训练加速方法-CN201911323604.9有效
  • 杜权 - 沈阳雅译网络技术有限公司
  • 2019-12-20 - 2023-08-04 - G06F40/58
  • 本发明公开一种基于堆叠算法的深层神经机器翻译系统的训练加速方法,步骤为:构造包含1个编码块的编码端和解码端和前作Transformer模型;将用稠密向量表示的句子输入编码端和解码端,并将编码端的输入写入记忆网络;每完成一个编码块的运算后将输出的向量写入记忆网络,访问记忆网络进行线性聚合后得到当前编码块的输出;训练当前的模型;拷贝顶层的编码块参数构造新的编码块并堆叠在当前的编码端之上,构造一个包含2个编码块的模型;重复此过程构造具有更深编码端的神经机器翻译系统训练至目标层数直到收敛;利用训练完的模型进行翻译。本发明方法可以训练具有48层编码层的网络,并取得1.4倍的加速比的同时提升了模型的性能。
  • 一种基于堆叠算法神经机器翻译系统训练加速方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top