[发明专利]基于改进Transformer模型的超长序列处理方法在审

专利信息
申请号: 202211113312.4 申请日: 2022-09-14
公开(公告)号: CN115510812A 公开(公告)日: 2022-12-23
发明(设计)人: 王瑞琴;纪其顺;黄熠旻;万超艺 申请(专利权)人: 湖州师范学院
主分类号: G06F40/126 分类号: G06F40/126;G06F40/211;G06F40/216;G06F40/284;G06N3/04;G06N3/08
代理公司: 杭州中利知识产权代理事务所(普通合伙) 33301 代理人: 韩洪
地址: 313000 浙江*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 改进 transformer 模型 超长 序列 处理 方法
【说明书】:

发明提出了一种基于改进Transformer模型的超长序列处理方法,该方法的实现基于在Transformer模型的基础上进行改进所构建的WSformer模型,具体包括以下步骤:S1.WSformer模型的预训练:S1.1采用序列分割方法将超长序列分割成小序列;S1.2.基于双层注意力机制的特征提取:采用双层注意力机制进行词级特征提取和句级特征提取,得到整个序列的特征编码;S2.改进的位置向量编码:在步骤S1.2的编码过程中利用三角函数对词汇的位置编码进行调整,实现对位置向量的编码。该方法能够有效地降低长文本序列编码的时间成本,更加精确地刻画词与词之间的位置关系,实现了对长序列文本的有效建模,提高了预测精度和计算效率。

【技术领域】

本发明涉及自然语言处理的技术领域,特别是一种基于改进Transformer模型的超长序列处理方法。

【背景技术】

在自然语言处理领域,循环神经网络和卷积神经网络一直是序列建模的主流方法。2014年,Google提出seq2seq模型(Sutskever I,Vinyals O,Le Q V.Sequence tosequence learning with neural networks[J].Advances in neural informationprocessing systems,2014,27.),简单的说就是一种序列到另一种序列的转换,在自然语言处理领域的应用主要有翻译,摘要,作诗等。自从seq2seq提出后,关于seq2seq的变体也有很多,但大多都是基于循环神经网络(Recurrent Neural Network,RNN)进行的处理,广泛用于各种序列建模,比如文本、语音等。2017年,Attention is all you need一文中首次提出基于自注意力机制的序列建模方法Transformer。但是对于超长序列的建模,Transformer方法需要计算序列中的每个词对于其它词的注意力权重,其计算成本是非常高的。此外,Transformer方法在捕获长距离词汇间的关系方面有所欠缺。2020年,Longformer(Beltagy I,Peters M E,Cohan A.Longformer:The long-documenttransformer[J].arXiv preprint arXiv:2004.05150,2020.)利用滑窗机制或随机选取部分词汇来降低Transformer中自注意力机制的计算量,进而捕获长距离信息。然而,在面对一个超长序列时,滑窗机制极有可能会破坏近距离词汇之间的信息联系而随机选取部分词汇的方式极有可能忽略重要词汇信息。2022年,Non-Position-Transformer(Haviv A,RamO,Press O,et al.Transformer Language Models without Positional EncodingsStill Learn Positional Information[J].arXivpreprint arXiv:2203.16634,2022.)提出不需要考虑词汇的位置编码也能很好捕获位置信息。然而在面对一个超长序列时,不考虑词汇的位置编码并不能带来效率的提升,同时Transformer本身自带的位置编码也存在一定的缺陷。

在文本语言表达中,一个段落表达的意思往往比一个句子表达的意思更为精准。这是因为人们在阅读的时候会根据一个句子表达的意思去推断周围句子的意思,如此可以使整个段落表达的意思更加精确,同时忽略一些不必要的干扰信息。然而,对于超长序列的处理,传统的transformer模型面临计算量过大、难以获取长距离词汇间的注意力权重、位置向量编码难以区分词与词之间的先后关系等一系列问题,现提出一种基于改进Transformer模型的超长序列处理方法。

【发明内容】

本发明的目的就是解决现有技术中的问题,提出一种基于改进Transformer模型的超长序列处理方法,通过对传统的Transformer方法进行改良,构建了新的超长序列处理模型WSformer,能够实现对长序列文本的有效建模,提高预测精度和计算效率。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖州师范学院,未经湖州师范学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211113312.4/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top