[发明专利]一种基于改进生成对抗网络的情感对话生成方法在审
| 申请号: | 202211528064.X | 申请日: | 2022-11-24 |
| 公开(公告)号: | CN115795011A | 公开(公告)日: | 2023-03-14 |
| 发明(设计)人: | 蔺茜;鄂新华;霍如 | 申请(专利权)人: | 北京工业大学 |
| 主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/35;G06N3/08;G06N3/04 |
| 代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 刘萍 |
| 地址: | 100124 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 改进 生成 对抗 网络 情感 对话 方法 | ||
1.一种基于改进生成对抗网络的情感对话生成方法,其特征在于:获取带有情感标注的对话数据,将数据按照情感类型分为Angry,Disgust,Happy,Like,Sad,Other六类,下文将情感类别数定义为k类;将对话语句中的情感词向量进行语义专业化,得到带有不同情感标签的专业化对话数据;采用关系记忆网络作为生成器,并设置多判别器,分别进行语义与情感信息的反馈;通过迭代进化学习算法调节语句生成质量与多样性的平衡,生成带有指定情感类别的对话回复语句Yc=(y1,...,yt,...,yT),yt∈V表示回复语句的词向量,V表示候选标记的词汇表,T表示生成语句的长度,c表示指定的生成对话情感类别;
S1:首先处理数据集,进行句子粒度的情感分类;选取多条带有情感标注的标准对话数据对现有的BERT预训练模型进行处理,得到多分类情感分类器;再将获取到的用于训练的对话数据通过情感分类器进行预处理,得到每条语句对应的语义向量X={x1,x2,...,xn},其中xn表示语句中第n个词向量;通过softmax函数得到该语句属于每类情感类别的概率,为语句选定k类情感标签内概率最大的一种作为情感标记;构建情感分类器有效的减少训练成本,提升对话情感表达;
S2:将对话数据词向量进行情感专业化,进行短语粒度的情感分类;
采用卷积神经网络,包括词嵌入层、卷积池化层和分类层,词嵌入层的输入参数为词嵌入矩阵,大小为V∈n×d,其中n为句子长度,d为词向量的维度;卷积层的卷积核高度设置与词向量维度相同,宽度为超参数,初始设置为2;池化层采用最大池化,然后将所得的值进行拼接,分类层通过线性softmax函数得出最终的分类,完成词向量的情感专业化;
S3:构建类别感知模型,模型包括生成器Gθ与判别器Dc,c∈{1,...,k},其中Dc表示生成对话在k类情感中属于第c种情感类别的概率,Dk+1代表文本为真实文本的概率;对于给定时刻t的新语义向量yt,用嵌入标签表示;同时对于指定情感c构建嵌入类别标签Ec来控制情感类别信息;然后对和Ec的串联进行线性变化Wx,得到生成器的输入向量其中[;]表示按行连接;
类别感知模型通过设定一个相对情感类别目标,根据鉴别器对情感类别的损失反馈来更新生成器;采用多分类判别器;使用sigmoid函数进行情感类别与文本真假的相对类别目标判断,再使用softmax函数单独进行k类情感的相似性判别,加强情感对话的表达;
鉴别器从指定类别c的实际数据分布中随机采样从该类别的生成数据分布中随机采样并计算了总类别损失,通过在所有实际类别信息中进行随机采样并在所有生成的类别信息中随机采样
以下为相对类别目标鉴别器判断公式:
上式右侧第一项测量了每个类别的实际数据和生成数据之间的相对距离,第二项测量了所有类别的实际数据与生成数据之间的相对距离;其中
该式表示生成对抗网络的博弈过程,式中表示从真实数据分布Pr采样Yr的期望,其中Yr根据相对类别目标鉴别器判断公式带入数据的不同,表示真实数据中指定类别c或所有类别all的采样和表示从生成数据分布Pθ采样Yθ的期望,Yθ同样根据相对类别目标鉴别器判断公式带入数据的不同,表示生成数据中指定类别c或所有类别a11的采样和表示生成对抗网络鉴别器在输入真实或生成数据时的相对判别衡量目标,定义如下:
其中Y根据式中相应的输入表示真实数据采样Yr或生成数据采样Yθ,Dk+1(Y)表示鉴别器输入文本Y是真实文本的概率,与定义与上述公式相同;
情感增强判别器部分使用多分类交叉熵损失函数,完整的鉴别器目标函数公式为:
上式为相对类别目标鉴别器判断公式,第二项为情感增强判别目标,为指定情感标签c的真实文本分布,Ys表示在分布中的随机采样,Dc(Ys)表示鉴别器对输入Ys判别是第c类情感的概率,此项通过softmax函数进一步判断所生成对话情感符合指定情感类别,为生成器提供反馈信息;
S4:采用关系记忆网络作为生成器,生成过程中,将逐步更新记忆矩阵,并结合前面步骤的输出,具体表示为将前一时刻的记忆矩阵Mt与处理好的词向量xt作为输入,记忆矩阵Mt的每一行代表一个记忆槽,使用自注意力的方式实现记忆槽之间的交互,对词向量构造查询、键和值向量;多头注意力机制(MHA)表示有H个头去获取不同层面的信息,从多个维度提取特征,每组头h的查询向量键向量值向量其中[;]表示按行连接,h∈H,表示多头注意力中的一组头,,分别表示对查询、键和值进行线性变换的权重矩阵,是通过模型训练得到的参数;Q、K向量相乘得到向量V的注意力权重,更新该层的记忆矩阵输出的计算公式如下:
其中σ(*)为softmax函数,T表示矩阵的转置,[:]表示不同的头按列拼接,dk表示键向量K的列数,h∈H表示其中的一组头,表示所有头的记忆矩阵按列拼接在一起,因此下一时刻的记忆矩阵和关系记忆网络的输出如下式所示:
在参数化函数fθ中引入了残差连接、多层感知器(MLP)、门控单元操作的组合,表示为其中fmlp(*)表示多层感知器(MLP);
Mt+1代表下一时刻的记忆矩阵输出,将与下一时刻的词向量输入xt+1生成新的查询、键与值,ot代表关系记忆网络的输出;
S5:采用Gumbel-softmax分布对输出样本ot进行近似,解决直接从多项式分布σ(ot)中采样下一个输出词yt+1会产生不可微的问题,过程分为两部分,分别使用Gumbel-Max采样离散句子,再通过softmax函数近似argmax函数;首先Gumbel-Max对离散向量yt+1的采样公式为:
其中表示ot的第d维值,为gt的第d维值,gt称为Gumbel噪声,是从Gumbel分布中随机采样所得,公式为:
其中表示从均匀分布U(0,1)采样的独立样本,该项存在的目的是使yt+1的返回结果不固定,增加生成回复的多样性;由于argmax函数是不可导的,无法通过反向传播进行学习,所以对其求可微的近似值,其可微近似值可由下式获得:
其中σ(*)表示softmax函数,τ表示温度参数,控制着softmax的平滑程度,由于是可微的,所以用它代替不可微的yt+1作为鉴别器的输入;
S6:Gumbel-softmax中添加温度参数τ来控制近似程度,调整温度参数τ的作用相当于在逼近下一时刻生成向量yt+1时调整偏差与方差,使生成器获得多样性,当τ越接近0的时候,采样出来的向量将越接近于one-hot形式;温度越高,生成的分布越平滑,输出更接近于均匀分布;
设置两种变异机制,温度变异机制与质量变异机制,将父代生成器Gθ设置多个不同温度参数变化方向,温度集合为其中τtar表示目标温度,表示在该温度下的线性单调函数,n∈[1,N]表示最大迭代次数N的当前迭代,设置N为2000,τtar初始设置为100;在每次迭代训练后温度参数会有一个微小增量,在固定质量参数的前提下,当训练达到最大迭代次数N后,根据下式温度评判公式选择温度集合中效果最优的温度参数τ作为下一阶段训练的固定值;保留该温度参数下的子代生成器作为新的亲本生成器,该温度阶段的评判公式为:
其中表示上面的相对判别衡量目标公式,测量生成样本与真实样本之间的擦差距,越大表示对话生成的质量越高,Pθ表示生成数据分布,Yθ表示在生成数据分布中的随机采样,根据本公式选取最佳温度下的生成器子代;
之后进入到质量变异阶段,将新选择的生成器固定温度进行训练,得到效果最好的一个生成器作为下一次迭代的亲本生成器;质量阶段的评判公式为
其中右侧第一项为温度评判公式,μ在训练中设置为从0增加到1,选取BLUE评价指标得分最高时对应的值作为当前μ值,主要用来平衡质量与多样性;表示从生成数据分布Pθ随机采样Yθ的期望;NLLqua通过计算生成器生成样本的负对数似然,评价对话生成的多样性,公式为
其中Pθ表示生成数据的样本分布,Yθ表示在Pθ中的随机采样,yT表示生成器生成的词向量,T表示生成句子的长度;根据质量判断公式选取固定温度下质量最佳的子代生成器作为本次迭代过程中的最优选择,进行情感对话生成的任务;
S7:每训练一次生成器,就根据采样数据通过相对情感类别目标公式进行更新鉴别器参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211528064.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种锂电正极材料制备工艺
- 下一篇:一种测电笔





