[发明专利]基于具有自注意力机制的图卷积神经网络文本分类方法在审
申请号: | 202110082121.5 | 申请日: | 2021-01-21 |
公开(公告)号: | CN112765352A | 公开(公告)日: | 2021-05-07 |
发明(设计)人: | 项林英;王国庆;陈飞 | 申请(专利权)人: | 东北大学秦皇岛分校 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F40/126;G06F40/216;G06F40/289;G06F40/30;G06K9/62;G06N3/08 |
代理公司: | 沈阳东大知识产权代理有限公司 21109 | 代理人: | 李珉 |
地址: | 066004 河北省秦*** | 国省代码: | 河北;13 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 具有 注意力 机制 图卷 神经网络 文本 分类 方法 | ||
1.一种基于具有自注意力机制的图卷积神经网络文本分类方法,其特征在于:包括以下步骤:
步骤1:获取多个待分类的文本存储到语料库中,同时对待分类的文本进行分词处理获得文本分词序列;并对文本分词序列的无效词或者停止词进行过滤处理;
步骤2:获取过滤处理后的文本分词序列的嵌入矩阵,使用自注意力机制得到文本分词序列的自注意力机制矩阵;
步骤3:对语料库中所有文本构建图网络结构;针对一个文本,构建一个具有n个节点、e条边的图网络结构,文本中的词作为图的节点,与一个节点最相似的若干词作为该词的邻居节点,并计算两个词向量的余弦相似度;
步骤4:对图网络结构进行预处理,计算图的Laplacian矩阵并进行归一化;步骤5:构建和训练图卷积神经网络模型;
步骤5.1:在图的Laplacian矩阵基础上,计算图傅里叶变换,实现图卷积滤波;
步骤5.2:构建图卷积层,并得到简化后的图卷积;步骤5.3:构建图的池化层和全连接层;步骤6:通过Softmax分类器,得到文本分类结果;
将图卷积神经网络模型全连接层的输出作为Softmax分类器的输入,对Softmax分类器输出的所有值计算Softmax函数值,并选取最大值作为文本的类别。
2.根据权利要求1所述的基于具有自注意力机制的图卷积神经网络文本分类方法,其特征在于:所述步骤2的具体方法为:
对步骤1中得到的预处理后的文本分词序列进行编码,建立文本词向量,将文本词向量输入到自注意力机制中,得到自注意力机制词向量,并计算各自注意力机制词向量的权重;
根据自注意力机制的查询Query与地址Key,计算各自注意力机制词向量与其邻居自注意力机制词向量之间的相似度,相似度计算函数为Simi(Query,Key)=Queryi·Keyi,其中,Queryi,Keyi分别为第i个自注意力机制词向量的查询和地址;然后使用Softmax函数对各自注意力机制词向量进行归一化处理得到各自注意力机制词向量的概率分布,其中,αi为各自注意力机制词向量的概率分布密度,Lx=||Source||表示文本分词序列的长度,Source表示文本分词序列;对各自注意力机制词向量的Value值进行加权求和,求和通过以下公式来计算:
其中,SAT(Query,Source)表示对自注意力机制词向量的Value值加权求和的结果值;
对加权求和后的自注意力机制词向量,采用随机初始化的词嵌入模型映射获得文本分词序列的嵌入矩阵,并对词嵌入矩阵的各行向量根据对应词的位置进行编码,然后将编码后的嵌入矩阵通过自注意力机制生成文本分词序列的自注意力机制矩阵A={a1,a2,...,am}T,其中,向量ai为第i个词的自注意力机制词向量,其包含有词本身和词与词序列中其它词的关联信息;最后,对文本分词序列的自注意力机制矩阵进行降维和融合处理。
3.根据权利要求2所述的基于具有自注意力机制的图卷积神经网络文本分类方法,其特征在于:所述步骤3的具体方法为:
构建图G,文本词构建图中的节点n,并在两个节点之间建立一条边,节点共现次数表示为节点边的权重W,若两个节点之间没有数据关联,则不构建边;在图G中,与节点n相连的节点在图G中所有节点的占比为Pe(n,G),通过公式来计算其中,P(n,G)表示在图G中与节点n相连接的节点的个数,NG表示图G中节点总数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学秦皇岛分校,未经东北大学秦皇岛分校许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110082121.5/1.html,转载请声明来源钻瓜专利网。