[发明专利]基于改进Transformer模型的超长序列处理方法在审
申请号: | 202211113312.4 | 申请日: | 2022-09-14 |
公开(公告)号: | CN115510812A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 王瑞琴;纪其顺;黄熠旻;万超艺 | 申请(专利权)人: | 湖州师范学院 |
主分类号: | G06F40/126 | 分类号: | G06F40/126;G06F40/211;G06F40/216;G06F40/284;G06N3/04;G06N3/08 |
代理公司: | 杭州中利知识产权代理事务所(普通合伙) 33301 | 代理人: | 韩洪 |
地址: | 313000 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出了一种基于改进Transformer模型的超长序列处理方法,该方法的实现基于在Transformer模型的基础上进行改进所构建的WSformer模型,具体包括以下步骤:S1.WSformer模型的预训练:S1.1采用序列分割方法将超长序列分割成小序列;S1.2.基于双层注意力机制的特征提取:采用双层注意力机制进行词级特征提取和句级特征提取,得到整个序列的特征编码;S2.改进的位置向量编码:在步骤S1.2的编码过程中利用三角函数对词汇的位置编码进行调整,实现对位置向量的编码。该方法能够有效地降低长文本序列编码的时间成本,更加精确地刻画词与词之间的位置关系,实现了对长序列文本的有效建模,提高了预测精度和计算效率。 | ||
搜索关键词: | 基于 改进 transformer 模型 超长 序列 处理 方法 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖州师范学院,未经湖州师范学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202211113312.4/,转载请声明来源钻瓜专利网。
- 上一篇:水性超纤革的图案转印机构
- 下一篇:一种改善镁合金焊接组织及性能的方法
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法