[发明专利]基于多通道神经网络的文本情感分析方法有效
申请号: | 202010783807.2 | 申请日: | 2020-08-06 |
公开(公告)号: | CN111881262B | 公开(公告)日: | 2022-05-20 |
发明(设计)人: | 甘臣权;冯庆东;张祖凡 | 申请(专利权)人: | 重庆邮电大学 |
主分类号: | G06F16/33 | 分类号: | G06F16/33;G06F16/35;G06F40/289;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京同恒源知识产权代理有限公司 11275 | 代理人: | 杨柳岸 |
地址: | 400065 *** | 国省代码: | 重庆;50 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 通道 神经网络 文本 情感 分析 方法 | ||
1.基于多通道神经网络的文本情感分析方法,其特征在于:该方法包括以下步骤:
步骤一:通过文本数据使用词嵌入技术训练词向量,并将文本映射为词向量矩阵;
步骤二:使用空洞CNN和双向LSTM通过词向量矩阵提取文本的高层上下文特征,利用双向LSTM提取文本的原始上下文特征;
步骤三:利用多通道模型,融合不同视距的上下文特征和原始上下文特征,通过局部注意力机制对各通道的特征进行加权,生成全局特征;
步骤四:利用全局注意力模块突出全局特征中的重要信息,最后使用Top-K池化策略对特征进行筛选;
步骤五:使用自适应加权损失函数,使模型自动关注难以分类和训练样本少的类别,以提高模型的分类性能;
所述步骤一中,词向量矩阵表示过程为:首先将原始文本数据进行分词,然后将分词处理后的文本输入Skip-gram模型训练词向量其中d代表词向量维度,从而得到词嵌入矩阵;定义文本s,其中s分词后表示为{w1,...,wt-1,wt,wt+1,...,wm},wt为文本的第t个词,m为文本所包含的单词个数,从而词嵌入层通过词嵌入矩阵将文本{w1,...,wt-1,wt,wt+1,...,wm}映射为其中,若未在词嵌入矩阵中的词,则使用d维的随机向量表示该词;为使输入保存一致,将模型输入序列长度设置为k,对于长度小于k的文本,使用d维的零向量将其词向量矩阵扩展到k×d,而对于长度大于k的文本,通过剪切将其长度限制到k;文本词向量矩阵表示为:
其中,表示连接符号;
所述步骤二中,特征提取过程包括:使用空洞CNN提取不同尺度的高层特征,同时对输入的词向量矩阵进行降维,然后通过非线性激活函数使网络利用完整的输入域或在需要时关注更少的元素;接着使用双向LSTM提取上下文特征,且已降维的高层特征使网络复杂度更低,最后得到某个尺度的高层上下文信息,或通过使用双向LSTM提取原始上下文特征;
所述步骤三中,定义n+1通道神经网络架构,前n个通道为高层特征提取通道,由空洞卷积神经网络和双向长短期记忆网络组成,第n+1个通道为原始特征采集通道,由双向长短期记忆网络;最后通过在每个通道中加入自注意力机制对提取的局部特征进行加权和筛选,并将其进行融合得到全局特征则:
其中,Mn为多通道神经网络结构的第n个通道输出;
所述步骤四中,首先使用卷积核大小为1×1卷积将全局特征映射到不同的子空间中,接着使用具有不同隐藏层的注意力机制对全局特征进行加权,然后将不同空间的输出拼接作为加权后的全局特征,最后使用Top-k池化策略对全局特征进行筛选。
2.根据权利要求1所述的基于多通道神经网络的文本情感分析方法,其特征在于:所述步骤五中,通过最小化自适应加权损失函数训练模型,包括以下步骤:
(1)计算训练数据的类间的平衡权重,训练模型,并在计算损失值时加入每个类别的权重,使用Adam优化器优化网络参数;
(2)使用训练后的模型预测验证数据,计算验证数据的精度,并根据每个类别的精度计算权重,结合训练数据的平衡权重计算自适应权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010783807.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:新型点火夹和点火判断方法
- 下一篇:一种一次性成型双色地板及其加工工艺