[发明专利]一种基于语义-情感双重关注的细粒度文本情感转换模型在审
申请号: | 202110360420.0 | 申请日: | 2021-04-02 |
公开(公告)号: | CN113051931A | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 曾佳荣;戴宪华 | 申请(专利权)人: | 中山大学 |
主分类号: | G06F40/30 | 分类号: | G06F40/30;G06N3/04 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 语义 情感 双重 关注 细粒度 文本 转换 模型 | ||
1.一种基于语义-情感双重关注的细粒度文本情感转换模型,其特征在于,所述双重关注模型包括CNN提取输入语句字符级特征、Glove词嵌入获得词语向量、双向LSTM中提取输入语句的上下文信息,语义与情感双重关注层,所述方法包括:
将数据集中的句子输入CNN,依次经过字符编码、卷积、最大池化,最终获得词语的字符级表示;
将输入语句用Glove词嵌入方式嵌入,本模型采用斯坦福公布的100d词嵌入,最终获得输入语句的词语级嵌入表示;
将以上两种表示联合起来一起送入双向LSTM中,LSTM隐藏层数为256;
为了在解码过程中更好的获取源语句的情感信息,在原Seq2SentiSeq模型已有语义关注层的基础上,增加一个情感关注层分支,通过Local Attention机制将源语句的情感强度信息加入编码过程;
将以上两个关注层得到的语义与情感上下文向量送入解码端,结合上一时刻的隐藏层向量、上一时刻的语义与情感层嵌入可得当前t时刻的解码器隐藏层状态;根据解码器状态分别计算语义概率分布与情感概率分布,最终根据两种概率分布解码输出。
2.根据权利要求所述的方法,其特征在于,所述CNN字符级嵌入模块依次包括字符编码、卷积、最大池化层;Glove词嵌入采用斯坦福公布的100d词嵌入。
3.根据权利要求1或2所述的方法,其特征在于,对语义和情感分别采取LocalAttention机制,该机制的窗口大小服从高斯分布。
4.所述方法还包括:生成语句情感强度与目标情感强度的差异所生成的奖励rs,生成语句重构回源语句的情感奖励r’s,两者共同组成情感奖励指导模型训练,从而提高模型的内容保存度与情感强度转换度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110360420.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用于叠合板生产的翻面装置
- 下一篇:一种近红外荧光材料及其制备方法