[发明专利]一种文本数据的自动分类方法及系统在审
申请号: | 201910346375.6 | 申请日: | 2019-04-26 |
公开(公告)号: | CN110134764A | 公开(公告)日: | 2019-08-16 |
发明(设计)人: | 王勇;高畅 | 申请(专利权)人: | 中国地质大学(武汉) |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/35;G06N3/04;G06N3/08 |
代理公司: | 武汉知产时代知识产权代理有限公司 42238 | 代理人: | 孙丽丽 |
地址: | 430000 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本数据 自动分类 语义信息 词向量 神经网络模型 工具训练 特征信息 网络 | ||
1.一种文本数据的自动分类方法,其特征在于,包括以下步骤:
S1、将原始的文本数据输入到Word2Vec工具中,训练得到文本数据对应的词向量;其中,词向量中包括了若干个子向量,每个子向量对应的是文本数据中单独的单词;
S2、将原始的文本数据输入到用于自动分类的深度神经网络模型中,结合步骤S1训练得到文本数据对应的词向量,实现对文本数据的自动分类。
2.根据权利要求1所述的自动分类方法,其特征在于,所述用于自动分类的深度神经网络模型包括四个层次,分别为输入层、词嵌入层、隐含层和输出层,其中,利用所述深度神经网络模型的四个层次,实现文本数据的自动分类的步骤包括:
S21、输入层在接收到文本数据W后,将其输入到嵌入层;
S22、在嵌入层中,结合步骤S1训练得到的文本数据对应的词向量,将输入的文本数据W转换为文本向量X,并将所述文本向量X作为隐含层的输入;
S23、隐含层利用双向长短时记忆网络,提取出文本向量X的文本特征Ht,并将其输入到输出层;
S24、输出层使用Softmax回归算法对文本特征Ht进行处理,从而得到最终的文本分类结果。
3.根据权利要求2所述的自动分类方法,其特征在于,步骤S21中,嵌入层在接收到文本数据W时,首先,通过文本分词算法,将读取到的文本数据W转换为n个独立的单词,其中,每个单词记为wi,i=1,2,…,n;其次,在将文本数据W转换为文本向量X时,首先,需在词向量中,获取wi所对应的词向量xi;最后,将每个单词的词向量进行合并,进而得到文本向量X,其中,X=(x1,x2,…xn)。
4.根据权利要求2所述的自动分类方法,其特征在于,隐含层采用的双向长短时记忆网络由包含相同节点数量的前向LSTM网络和后向LSTM网络构成;当隐含层在接收到文本向量X后,将向量X的各个特征向量xi作为前向LSTM网络中各个节点的输入,对应的所述前向LSTM网络的各个节点的输出,则分别作为后向LSTM网络对应节点的输入;
其中,上述两个网络的数据传输方向相反,即前向LSTM网络最后一个节点的输出作为后向LSTM网络第一个节点的输入,前向LSTM网络第一个节点的输出作为后向LSTM网络最后一个节点的输入,根据双向长短时记忆网络的数据传输方向,取后向LSTM网络第一个节点的输出作为隐含层的输出。
5.根据权利要求4所述的自动分类方法,其特征在于,隐含层中,提取出文本向量X的文本特征Ht的步骤包括:
S231、取前向LSTM网络各节点的输出为:hf,i=f(hf,i-1,xi);其中,xi为输入的文本特征向量,hf,i-1为第i-1个节点的输出;
取后向LSTM网络各节点的输出为:hb,i=f(hb,i+1,hf,i);其中,hb,i+1为后向LSTM网络第i+1个节点的输出;
S232、取后向LSTM的第一个节点的输出作为隐含层的输出,即Ht=hb,1。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国地质大学(武汉),未经中国地质大学(武汉)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910346375.6/1.html,转载请声明来源钻瓜专利网。