[发明专利]新闻评论自动生成方法及其装置有效
| 申请号: | 201811542145.9 | 申请日: | 2018-12-17 |
| 公开(公告)号: | CN109670036B | 公开(公告)日: | 2020-12-08 |
| 发明(设计)人: | 朱静;杨晋昌;黄颖杰;黄文恺;陶为俊;邓文婷;黄双萍 | 申请(专利权)人: | 广州大学 |
| 主分类号: | G06F16/34 | 分类号: | G06F16/34;G06F40/258;G06N3/04;G06N3/08 |
| 代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌;裘晖 |
| 地址: | 510006 广东省广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 新闻 评论 自动 生成 方法 及其 装置 | ||
1.新闻评论自动生成方法,其包括以下步骤:
步骤S1、收集多组目标特征新闻标题;
步骤S2、对收集到的上述新闻标题进行预处理来构造训练数据,将所述训练数据输入LSTM模型进行训练,从而形成新闻编码;
步骤S3、加入门控注意力机制,对上述新闻编码进行解码,从而生成新闻评论;
步骤S4、加入鉴别器,形成GAN模型,将LSTM模型生成的评论用鉴别器区别真假评论,LSTM模型作为生成器与鉴别器相互博弈,直至输出结果达到阈值;
所述门控注意力机制涉及的公式如下:
①
di=vTtanh(Whhi+Wssj)
式(8);
其中,di为计数符号为i的神经网络隐藏层向量,是一个参数向量,均为参数矩阵,hi表示编码阶段结束后,所有评论词构成的一个最终隐藏向量,Sj表示解码阶段评论词的隐藏向量,tanh是非线性激活函数,ai为利用新闻题目的当前隐层向量和所有隐层向量计算得到的注意力分数,dk为计数符号为k的神经网络隐藏层向量;
②计算上下文向量hc:
hc=∑aihi 式(10);
其中,
③然后使用一个门控函数,此函数值域在0-1,作为权重决定解码阶段的现在的隐藏向量:
mj=σ(Gsj+b) 式(11);
其中,mj为网络中解码阶段的当前的隐层向量,σ(.)是sigmoid函数,b为偏置矩阵;
④计算新隐藏向量Sj:
sj=Wg[sj-1,m⊙hc]+b 式(12);
其中,m为由当前解码阶段隐层向量各个mj组成的向量,hc为网络中代表新闻上下文信息的向量,即上下文向量;其中j取1、2、3...n。
2.根据权利要求1的所述新闻评论自动生成方法,其特征在于,步骤S1中,所述目标特征新闻标题要求使用编码方式相同,语言一致。
3.根据权利要求1的所述新闻评论自动生成方法,其特征在于,步骤S2中,对收集到的新闻标题数据进行预处理来构造训练数据,得到字符-数字的映射和数字-字符的映射,建立LSTM模型的输入one-hot向量,根据one-hot向量构建词嵌入表示。
4.根据权利要求1的所述新闻评论自动生成方法,其特征在于,步骤S3中,计算当前隐藏向量和新闻标题的所有隐藏向量之间的注意力分数,并进行归一化得到最终的注意力权重;通过使用新的隐藏向量,模型可以在生成每个词时强调标题的不同部分;这个过程在该解码阶段可以看到,模型不仅自适应地使用上下文信息,而且选择性地使用信息。
5.根据权利要求1的所述新闻评论自动生成方法,其特征在于,步骤S4中,所述博弈具体包括,生成器与鉴别器进行二元极小极大的博弈,最终达到纳什均衡。
6.根据权利要求1的所述新闻评论自动生成方法,其特征在于,步骤S4中,选择CNN卷积神经网络作为鉴别器,利用策略梯度强化学习进行对抗训练,在对抗训练开始时,使用极大似然估计对训练集上的评论生成器进行预训练,直到生成器达到收敛为止。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州大学,未经广州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811542145.9/1.html,转载请声明来源钻瓜专利网。





