[发明专利]一种基于BERT的网络不良短文本检测方法、装置及存储介质在审
申请号: | 202010871788.9 | 申请日: | 2020-08-26 |
公开(公告)号: | CN112131453A | 公开(公告)日: | 2020-12-25 |
发明(设计)人: | 高望;朱珣;邓宏涛;刘哲;王煜炜 | 申请(专利权)人: | 江汉大学 |
主分类号: | G06F16/9532 | 分类号: | G06F16/9532;G06F16/332;G06F40/30 |
代理公司: | 武汉智嘉联合知识产权代理事务所(普通合伙) 42231 | 代理人: | 黄君军 |
地址: | 430056 湖北省武*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 bert 网络 不良 文本 检测 方法 装置 存储 介质 | ||
1.一种基于BERT的网络不良短文本检测方法,其特征在于,包括以下步骤:
采集短文本,对所述短文本进行标注,将标注后的短文本分为测试数据集和训练数据集,根据所述测试数据集和训练数据集训练BERT模型,得到基于不良短文本检测的BERT模型;
将待检测短文本及其对应的额外信息输入至所述基于不良短文本检测的BERT模型中,获取对应的隐藏状态的语义表示,根据隐藏状态的语义表示,获取不良短文本标签;
将所述不良短文本标签、待检测短文本及其对应的额外信息输入至所述基于不良短文本检测的BERT模型中,获取对应的隐藏状态的语义表示,根据隐藏状态的语义表示,判别出不良短文本的类型。
2.根据权利要求1所述的基于BERT的网络不良短文本检测方法,其特征在于,对所述短文本进行标注,将标注后的短文本分为测试数据集和训练数据集,根据所述测试数据集和训练数据集训练BERT模型,具体包括,将所述短文本标注为不良短文本或者正常短文本,将不良短文本标注为不同类型的不良短文本,将标注后的短文本分为测试数据集和训练数据集,利用测试数据集、训练数据集以及短文本的额外信息,训练BERT模型。
3.根据权利要求1所述的基于BERT的网络不良短文本检测方法,其特征在于,利用测试数据集、训练数据集以及短文本的额外信息,训练BERT模型,具体包括,利用测试数据集、训练数据集以及短文本的额外信息,并使用Gelu作为激活函数,使用Adam优化器,使用交叉熵损失函数训练BERT模型,其中,交叉熵损失函数为
其中,y表示短文本数据集的真实标签,p表示模型预测的标签,m表示标签的数量,n表示短文本数据集的数量。
4.根据权利要求1所述的基于BERT的网络不良短文本检测方法,其特征在于,将待检测短文本及其对应的额外信息输入至所述基于不良短文本检测的BERT模型中,获取对应的隐藏状态的语义表示,根据隐藏状态的语义表示,获取不良短文本标签,具体包括,将待检测短文本及其对应的额外信息进行向量化,得到输入向量,将所述输入向量输入至所述于不良短文本检测的BERT模型,将输入向量编码为隐藏状态,获取隐藏状态的注意力权重,根据所述隐藏状态及其注意力权重,获取隐藏状态的语义表示,根据所述隐藏状态的语义表示,获取不良短文本标签。
5.根据权利要求4所述的基于BERT的网络不良短文本检测方法,其特征在于,根据所述隐藏状态的语义表示,判别出不良短文本,具体包括,将[CLS]代表的短文本与所有隐藏状态的语义表示连接起来,形成用于分类的向量R,将向量R输入全连接层,获取不良短文本标签。
6.根据权利要求5所述的基于BERT的网络不良短文本检测方法,其特征在于,获取隐藏状态的注意力权重,具体包括,利用注意力权重计算公式,获取获取隐藏状态的注意力权重,其中,注意力权重计算公式为
f表示关系评分函数,f(Hi,T)=tanh(W[Hi:T]+b),tanh表示双曲正切激活函数,W和b表示模型的参数,Hi、T分别为隐藏状态和主题特征,Ai为注意力权重。
7.根据权利要求6所述的基于BERT的网络不良短文本检测方法,其特征在于,根据所述隐藏状态及其注意力权重,获取隐藏状态的语义表示,具体包括,利用语义表示公式,获取隐藏状态的语义表示,其中,所述语义表示公式为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江汉大学,未经江汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010871788.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种面向3D打印的过程纹理合成系统及方法
- 下一篇:一种自动卸套筒装置及方法