[发明专利]文本分类模型构建方法、装置、终端及存储介质在审
申请号: | 201910113183.0 | 申请日: | 2019-02-13 |
公开(公告)号: | CN109960726A | 公开(公告)日: | 2019-07-02 |
发明(设计)人: | 徐亮;金戈;肖京 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06K9/62;G06K9/46 |
代理公司: | 深圳市立智方成知识产权代理事务所(普通合伙) 44468 | 代理人: | 王增鑫 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本分类模型 构建 卷积神经网络 词向量 存储介质 接口设计 调试 神经网络技术 终端 面向对象 模型设置 文本分类 文本训练 训练数据 嵌入层 算法 收敛 打印 分类 灵活 维护 | ||
1.一种文本分类模型构建方法,其特征在于,包括:
利用pytorch框架搭建卷积神经网络模型;其中,所述卷积神经网络模型设置于嵌入层;
获取文本分类训练数据,利用Word2Vec算法将所述文本训练数据进行词向量训练,得到词向量;
将所述词向量输入卷积神经网络模型进行分类训练,直至收敛时,得到文本分类模型。
2.根据权利要求1所述的文本分类模型构建方法,其特征在于,所述利用Word2Vec算法将所述文本训练数据进行词向量训练之前,还包括:
根据正则表达式匹配规则去除文本训练数据的停用词和符号;
利用结巴分词库将去除停用词和符号的文本训练数据进行中文分词。
3.根据权利要求2所述的文本分类模型构建方法,其特征在于,所述利用结巴分词库将去除停用词和符号的文本训练数据进行中文分词的步骤,包括:
利用结巴分词库确定文本训练数据中汉字之间的相关度;
将相关度大于预设值的汉字组成分词,得到分词结果。
4.根据权利要求1所述的文本分类模型构建方法,其特征在于,所述将所述词向量输入卷积神经网络模型进行分类训练的步骤,包括:
根据所述词向量并通过交叉熵损失函数和ADAM优化算法对卷积神经网络模型进行分类训练。
5.根据权利要求1所述的文本分类模型构建方法,其特征在于,所述利用Word2Vec算法将所述文本训练数据进行词向量训练的步骤,包括:
利用Word2Vec算法对大型语料数据进行词向量训练,得到词向量字典;
根据所述词向量字典将文本训练数据转化为词向量。
6.根据权利要求1所述的文本分类模型构建方法,其特征在于,所述利用pytorch框架搭建卷积神经网络模型之后,还包括:
在所述卷积神经网络模型上建立位置注意力机制和通道注意力机制;其中,所述位置注意力机制和通道注意力机制的输入与卷积神经网络模型的激活层的输出连接,所述位置注意力机制和通道注意力机制的输出与卷积神经网络模型的全连接层的输入连接。
7.根据权利要求1所述的文本分类模型构建方法,其特征在于,所述将所述词向量输入卷积神经网络模型进行分类训练,直至收敛时,得到文本分类模型的步骤,包括:
根据分类训练结果计算卷积神经网络模型的分类准确率;
当分类准确率低于预设值时,调整卷积神经网络模型的参数,利用词向量对所述卷积神经网络模型重新训练,直至收敛时,得到文本分类模型。
8.一种文本分类模型构建装置,其特征在于,包括:
搭建模块,用于利用pytorch框架搭建卷积神经网络模型;其中,所述卷积神经网络模型设置于嵌入层;
获取模块,用于获取文本分类训练数据,利用Word2Vec算法将所述文本训练数据进行词向量训练,得到词向量;
训练模块,用于将所述词向量输入卷积神经网络模型进行分类训练,直至收敛时,得到文本分类模型。
9.一种终端,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述的文本分类模型构建方法的步骤。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至7中任一项所述的文本分类模型构建方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910113183.0/1.html,转载请声明来源钻瓜专利网。