[发明专利]一种基于大型通用预训练模型控制对话生成的方法有效
申请号: | 202110501116.3 | 申请日: | 2021-05-08 |
公开(公告)号: | CN113420129B | 公开(公告)日: | 2022-11-18 |
发明(设计)人: | 黄洪;王赞;贾勇哲;马国宁 | 申请(专利权)人: | 天津大学;天津泰凡科技有限公司 |
主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F16/35 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李素兰 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 大型 通用 训练 模型 控制 对话 生成 方法 | ||
1.一种基于大型通用预训练模型控制评论生成的方法,其特征在于,该方法具体包括以下流程:
步骤1、采用通用预训练语言模型和属性判别模型实现前向计算,进行属性模型p(a|x)预测,该步骤包括:
首先,加载预训练模型和相对应的词典,在进行神经网络反向传播时冻结预训练模型的参数;向预训练模型输入初始引导词,得到无扰动的原始历史信息;将历史信息进行多轮迭代累加目标情感的梯度值;每个轮迭代过程中,将当前词和历史信输入预训练模型,输出当前词的词典分布和包含当前词的新历史信息;累加当前词在Transformer模型解码器最后一层的信息并对句子长度取平均后传入判别模型进行分类计算;
反向回传过程:根据属性判别模型回传的梯度,更新通用预训练语言模型内部历史状态,使得实际预测更接近想要的情感属性
步骤2、通过预训练模型生成原始文本和键值对的历史信息:
在原本文本中,当生成第t时刻词时,向预训练模型输入原始文本中初始的t-1时刻词,输出t-1时刻词在
步骤3、通过情感分类判别器得到:利用更新之后的H来预测此时刻的词典分布,计算Ht的更新值通过若干次重复计算梯度并衰减求和得到原始文本语义至主题类型或情感类型的目标属性的对应关系;
利用鉴别器把文本主题语义引导到目标属性上,即:当要生成第t+1时刻词时,向预训练模型输入第t时刻词和t-1时刻Transformer模型解码器所有层的历史信息;当生成第t+1时刻词时,修改t-1时刻词的键值对历史信息,具体操作如下:
将从预训练模型中输出的t-1个词键值对历史信息记为Ht-1(表示t时刻传入的历史信息),再输入给预训练模型第t时刻词和t-1时刻的历史信息,生成第t+1时刻词的初始词典分布和第t时刻词的键值对历史信息;
将第t时刻词的键值对历史信息记为Ht,传给鉴别器,通过多轮迭代的前向计算和反向传播计算,引导历史信息朝目标属性移动;具体实现过程是:构造一个和历史信息同样大小维度由0组成的初始化矩阵,在此初始化矩阵上迭加鉴别器loss反向传播后的梯度值ΔH,进行正则化后;
将步骤(3)的上述过程设为迭代过程,每轮迭代结束时,将Ht和ΔH相加得到新的第t时刻词的键值对历史信息Ht;
公式如下:
其中,p表示条件概率,a表示目标属性,α表示梯度移动的步幅;
步骤4、优化调节:利用KL项缩小输出的分布和之前的分布的KL值;最终的采样分布结果是未改变的分布和改变后的分布的加权之和;根据属性模型p(a|x)采样出来的候选句子集合,判断与属性一致的程度进行排序。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学;天津泰凡科技有限公司,未经天津大学;天津泰凡科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110501116.3/1.html,转载请声明来源钻瓜专利网。