[发明专利]基于半监督深度学习的弹幕文本情感分类方法及存储介质在审
申请号: | 202211458739.8 | 申请日: | 2022-11-17 |
公开(公告)号: | CN116304009A | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 王钊;姚啸宇;高仁至 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06N3/0442;G06N3/048;G06N3/0895;G06F40/289;G06F40/30 |
代理公司: | 北京润平知识产权代理有限公司 11283 | 代理人: | 刘兵 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 深度 学习 弹幕 文本 情感 分类 方法 存储 介质 | ||
本发明实施例提供一种基于半监督深度学习的弹幕文本情感分类方法及存储介质,属于弹幕情感分类技术领域。所述弹幕文本情感分类方法包括随机对所有弹幕文本进行情感标签;获取所有弹幕文本的词向量;获取第t个时间步下被情感标签的单条弹幕文本以及所述弹幕文本前后M条弹幕文本,并形成增广弹幕样本集合。本发明采用随机标记弹幕文本并构建增广弹幕样本集合的方式,能够降低预训练时标签的工作量;此外,采用词语级注意力机制模型和句子级注意力机制模型能够获取该条弹幕内部词语以及相邻弹幕间的相互影响关系并融合,以使得对弹幕文本的情感分类更加准确可靠。
技术领域
本发明涉及弹幕情感分类技术领域,具体地涉及一种基于半监督深度学习的弹幕文本情感分类方法及存储介质。
背景技术
着社会经济发展与互联网信息技术的不断进步,视频节目、短视频、网络直播等成为许多人的学习和娱乐消遣的途径,视频平台越来越受到大众的欢迎。随之而来,弹幕作为一种新兴的视频评论机制,已成为受众表达对网络视频中的影视剧、直播以及综艺节目看法的一种独特的文化实践方式。观众在观看网络视频时,可以通过弹幕实时发表对视频内容的看法,并且能够看到视频在同时间内其他观众发表的感受,与用户以弹幕的形式进行交流。因此,弹幕实时蕴含着用户对视频内容表达的评价与情感态度,这为视频内容质量管理提供了新视角,视频发布者或平台监督者可以通过分析弹幕的情感倾向判断用户满意度和视频质量,为今后的视频管理提供理论依据。
目前,在弹幕情感分析领域已有的方法有基于情感词典的弹幕情感分析方法:根据领域特点构建包含积极、中立、消极情感词在内的情感词典,通过匹配相应情感词汇来判断弹幕的情感倾向。基于情感词典的方法只分析情感词,没有考虑词语在弹幕内与弹幕间的语义序列性,这使得这类方法在实际应用中很容易误判弹幕情感倾向。还有基于机器学习的弹幕情感分析方法:首先将文本转化为机器可以识别的向量数字,再通过设计算法模型提取弹幕文本的情感特征,学习系统输入输出之间的映射关系。基于机器学习的方法需要大量的弹幕情感标注信息,目前这些标注信息的获取通常依赖人工标注,这耗费了大量的人力财力。并且现有的机器学习方法难以利用未标记数据,很大程度上限制了机器学习方法在弹幕情感分析中的应用范围。
本申请发明人在实现本发明的过程中发现,现有技术的上述方案具有对弹幕情感标记不够准确且应用范围窄的缺陷。
发明内容
本发明实施例的目的是提供一种基于半监督深度学习的弹幕文本情感分类方法及存储介质,该基于半监督深度学习的弹幕文本情感分类方法及存储介质能够准确地对弹幕进行情感标记,且应用范围广。
为了实现上述目的,本发明实施例一方面提供一种基于半监督深度学习的弹幕文本情感分类方法,包括:
随机对所有弹幕文本进行情感标签;
获取所有弹幕文本的词向量;
获取第t个时间步下被情感标签的单条弹幕文本以及所述弹幕文本前后M条弹幕文本,并形成增广弹幕样本集合;
将所述增广弹幕样本集合输入至词语级GRU双向门控循环模型中,以获取所述增广弹幕样本集合中每条弹幕文本的词语级别信息,并形成词语级别信息集合;
将所述词语级别信息集合输入至词语级注意力机制模型中,以获得所述词语级别信息集合中每条弹幕文本的句子特征向量,并形成句子特征向量集合;
将所述句子特征向量集合输入至句子级GRU双向门控循环模型中,以获取所述词语级别特征向量集合中每条弹幕文本的句子级别信息,并形成句子级别信息集合;
将所述句子级别信息集合输入至句子级注意力机制模型中,以获得增广样本特征向量;
根据所述增广样本特征向量获取第t个时间步下被情感标签的单条弹幕文本的情感态度类别向量;
根据所述情感态度类别向量输出情感类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211458739.8/2.html,转载请声明来源钻瓜专利网。