[发明专利]一种基于多源领域适应联合学习的跨领域文本情感分类方法有效
申请号: | 201910380979.2 | 申请日: | 2019-05-08 |
公开(公告)号: | CN110032646B | 公开(公告)日: | 2022-12-30 |
发明(设计)人: | 赵传君 | 申请(专利权)人: | 山西财经大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06N3/04 |
代理公司: | 北京中南长风知识产权代理事务所(普通合伙) 11674 | 代理人: | 张学元 |
地址: | 030006 山*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 领域 适应 联合 学习 文本 情感 分类 方法 | ||
1.一种基于多源领域适应联合学习的跨领域文本情感分类方法,其特征在于,包括以下步骤:
S1,多源领域适应联合学习中迁移多个源领域任务TaskSk(1≤k≤K)的情感知识,并利用目标领域带标签数据DL,同时学习源领域任务TaskSk和目标领域任务TaskT,得到假设目标是最小化经验损失提高目标领域任务上的分类效果;
S2,构建特定领域的深度特征提取模型,使用在无监督语料上得到的预训练词向量作为深度特征提取模型的输入,同时词向量在针对特定的任务时调整;
步骤S2还包括:
S21,输入为文本的词序列x={x1,x2,…xn},n为词的个数,其中xi∈Rd为第i-th个词的嵌入式表示,d为词向量的维度;
S22,门循环单元细胞包含更新门zt,重置门rt,候选门和输出ht;
S23,双向门循环单元包含正向和反向两个隐层,两个方向的结果联合到最终的输出,
其中,为t时刻正向门循环单元输出,xt为t时刻输入,为t-1时刻正向门循环单元输出,GRU为门循环单元,为t时刻逆向门循环单元输出,为t-1时刻逆向门循环单元输出,ht为双向门循环单元输出;
S24,双向门循环单元的输出序列h={h1,h2,…hn}作为卷积神经网络的输入,在卷积神经网络中,输入层双向门循环单元生成的特征向量自顶向下排列生成的矩阵W∈Rn×d,在卷积层中,卷积的窗口大小为N元语法,xi:i+m-1代表m个词,即词xi,xi+1,和xi+m-1;
S25,新的特征gi由xi:i+m-1生成,gi=ReLU(eT·xi:i+m-1+b),其中,ReLU为线性单元激活函数,e∈Rm×d为卷积核,b∈R为偏置项,得到卷积矩阵g=[g1,g2…gn-h+1];
S26,在池化层,使用最大池化方法对卷积层得到的特征映射抽取最大值,池化层输出为每个特征映射g的最大值,即最终l个卷积核得到的特征向量为不仅抽取出了句子中的情感信息,还保持了顺序信息;
S27,在情感分类阶段,在池化层后,输出的特征向量z通过全连接的方式被连接Softmax 层,
其中y为情感标签,w为全连接层的参数,z为卷积核得到的特征向量,为偏置项;
S3,为了预训练深度特征提取模型底层参数,使用源领域和目标领域的数据执行编码—解码操作初始化双向门循环单元网络的参数,编码解码的操作流程为x→C→h;
步骤S3还包括:
S31,为了预训练深度特征提取模型底层参数,使用源领域和目标领域的数据执行编码—解码操作初始化双向门循环单元网络的参数,编码通过双向门循环单元的非线性变换输入词序列x到语义表示C,解码操作的输出为h={h1,h2…hn},编码解码的操作流程为x→C→h;
S32,目标是最小化重构损失为
其中,X为词序列,h为解码输出,n为维度,在预训练双向门循环单元网络后,通过目标领域任务TaskT和源领域任务TaskSk的带标签数据实现训练深度特征提取模型的参数;
S4,考虑到不同领域的情感分布的差异性,通过最小化参数迁移过程中的损失Lshare实现情感知识的迁移,目标是迁移源领域的知识到目标领域的特征表示中;
步骤S4还包括:
S41,定义软参数共享的损失为
其中WT(BiGRU)和WT(ConvNets)分别是在目标领域任务TaskT中双向门循环单元和卷积神经网络的参数,WSk(BiGRU)和WSk(ConvNets)分别是在第k-th个源领域任务TashSk中双向门循环单元和卷积神经网络的参数,为目标领域任务Softmax层的参数,是第k-th个源领域任务Softmax层的参数,为二范数;
S42,最小化损失项Lshare减少不同领域的深度特征提取模型参数的差异,通过软参数共享,不仅得到源领域任务的情感表示,还通过参数调整和联合训练得到目标领域任务的共享表示;
S5,在源领域任务和目标领域任务上的整体情感损失为ε为权重参数;
步骤S5还包括:
S51,使用交叉熵损失函数作为损失函数,在源领域任务TaskSk上的损失函数为
其中,n为源领域的样本数,CSk为源领域的标签数,是真实标签,为预测标签;
S52,在目标领域任务TaskT上的损失函数为
其中,N为目标领域的样本数,CT为目标领域的标签数,是真实标签,为预测标签;
S53,在源领域任务和目标领域任务上的整体情感损失为
S6,源领域任务TaskSk的特征表示记为RSk,目标领域任务TaskT的特征表示记为RT,经过核希尔伯特空间映射后源领域任务和目标领域任务的分布相似,即RSk≈RT;
步骤S6还包括:
S61,源领域任务和目标领域任务TaskT的分布距离为
其中,为领域的中心,为领域第c类的类中心, Center(DT)为领域DT的中心,为领域DT第c类的类中心;
S62,源领域和目标领域DT的距离适应性损失定义为
其中,为源领域中样本的个数,|DT|为目标领域DT中样本的个数;X→H为非线性变换,H为核希尔伯特空间;为源领域任务中标签的个数,CT为目标领域任务中标签的个数;
S63,源领域和目标领域间的领域融合损失记为
S7,定义联合损失函数L=Lsen+λLshare+ηLdomain+σReg,优化学习的目标函数是和参数集更新策略;
步骤S7还包括:
S71,为提高深度特征提取模型的泛化性和防止过拟合,设计正则项Reg如下:
S72,设计总的损失函数如下:
L=Lsen+λLshare+ηLdomain+σReg
其中λ为参数共享损失的权重,η为领域融合损失的权重,σ为正则项的权重;
S73,基于以上定义的损失函数,使用多个源领域任务和目标领域任务中的带标签数据对多源领域适应联合学习深度特征提取模型进行联合训练,优化的目标是
深度特征提取模型的参数集记为θ,包含WT(BiGRU)、WSk(BiGRU)、WT(ConvNets)、WSk(ConvNets)、和
S74,为了实现后向传播过程,参数通过随机梯度下降的方法进行更新和训练:
其中μ为学习率;
S75,参数集θ的更新策略为
联合学习的目标是最小化损失函数并得到此时最优的参数集θopt,
其中,和为目标领域任务TaskT中双向门循环单元网络和卷积神经网络在第t+1次迭代的参数,和为双向门循环单元网络和卷积神经网络在第t次迭代的参数;
对于k=1,2…K,
其中,和为在源领域任务中双向门循环单元网络和卷积神经网络在第t+1次迭代的参数,和为双向门循环单元网络和卷积神经网络在第t次迭代的参数;
其中,和分别为目标领域任务TaskT和源领域任务在第t+1次迭代的参数,和分别为在第t次迭代的参数;
S76,损失函数的偏导数如下:
S8,对于每个源领域任务和目标领域任务,对每个组合对(TaskSk,TaskT)进行交替训练,通过以这种方式训练深度特征提取模型,提高每个任务的性能,而无需找到更多领域特定的训练数据,使用随机梯度下降法训练参数,使用迭代的方法获得最佳参数集θopt。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西财经大学,未经山西财经大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910380979.2/1.html,转载请声明来源钻瓜专利网。