[发明专利]一种基于深度学习的文本语义提取方法在审

专利信息
申请号: 202110295550.0 申请日: 2021-03-19
公开(公告)号: CN113051909A 公开(公告)日: 2021-06-29
发明(设计)人: 钱丽萍;钱江;沈铖潇;王寅生 申请(专利权)人: 浙江工业大学
主分类号: G06F40/289 分类号: G06F40/289;G06F40/30;G06N3/04;G06N3/08
代理公司: 杭州斯可睿专利事务所有限公司 33241 代理人: 王利强
地址: 310014 浙江省*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 学习 文本 语义 提取 方法
【说明书】:

一种基于深度学习的文本语义提取方法,对于一个较长文本输入,经过系统模型,能够最大程度上还原文本语义。本发明结合了循环神经网络(RNN)以及自我注意力机制(Self‑Attention)优势,极大程度上改善了文本语义提取效果,节省了深度学习模型计算资源总成本,有效地降低了文本语义提取时间,使读者获得更优质的阅读体验。

技术领域

本发明属于人工智能领域,一种基于深度学习的文本语义提取方法。

背景技术

随着近年来移动通信的蓬勃发展,碎片化时代不可避免地到来,生活节奏的 加快使得越来越多的人在阅读长篇文章时往往没有时间阅读完整。这就需要文本 语义提取工具将长篇文本提取出其中的语义,以最大限度地节省读者的时间,同 时读者也能够轻易地领会文章的主旨要义。但是,传统的基于循环神经网络 (Recurrent Neural Networks,RNN)或卷积神经网络(Convolutional Neural Networks, CNN)的语义提取模型效果较差,无法达到领会全文主旨的预期效果,近年来有学 者提出基于长短期记忆网络模型(LongShort-Term Memory,LSTM)来进行文本语 义提取,使得语义还原效果较循环神经网络或卷积神经网络有了一定的提升。

发明内容

为了克服传统语义提取方法模型运算时间长,语义还原效果较差的缺点,旨 在以深度学习为基础,本发明提出一种文本语义提取方法。本发明创新性地将 RNN以及自我注意力机制(Self-Attention)结合,对传统的单一序列到序列模型做 出了改进,能够最大程度上还原语义,在控制以及通信领域能够得到较好的应用。

本发明解决其技术问题所采用的技术方案是:

一种基于深度学习的文本语义提取方法,包括以下步骤:

1)在预处理阶段中的操作如下:将所要传输的句子s标准化为词数个数为n, 参数n可以自行设定;然后将所要传输的句子输入jieba中文分词模型,进行分词 处理,得到w1,w2,w3,···,wn,接着将w1,w2,w3,···,wn输入word2vec中文预训练模型, 最后输出每一个单词所对应的词向量,用e1,e2,e3,···,en表示,词向量组e1,e2,e3,···,en记作E;

2)将词向量e1,e2,e3,···,en输入单层循环神经网络,保留最后时刻循环神经网 络隐藏层的输出向量,记为t1;该循环神经网络模型的权重由电影评论数据集训 练得到;

3)将词向量组e1,e2,e3,···,en输入至编码器,编码器分为相同两层。在编码器第一层中,词向量组首先进入自我注意力机制,计算过程说明如下:

qi=Wq×E,i∈[1,n] (1)

ki=Wk×E (2)

vi=Wv×E (3)

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110295550.0/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top