[发明专利]多标签文本分类方法、系统及计算机设备在审
申请号: | 202210608524.3 | 申请日: | 2022-05-31 |
公开(公告)号: | CN114970727A | 公开(公告)日: | 2022-08-30 |
发明(设计)人: | 秦峰;张立波 | 申请(专利权)人: | 上海众至科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 北京市万慧达律师事务所 11111 | 代理人: | 康丽丽 |
地址: | 201210 上海市浦东新区中国*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 标签 文本 分类 方法 系统 计算机 设备 | ||
本申请公开了一种多标签文本分类方法、系统及计算机设备,方法包括:获取多标签文本数据集,多标签文本数据集中包括标注有类别标签的个人健康信息文本数据;基于多标签文本数据集训练预先建立的文本分类工具获得目标文本分类工具;预先建立的文本分类工具包括预设文本分类模型和预设规则引擎,目标文本分类工具包括目标文本分类模型和目标规则引擎;基于所述目标文本分类工具处理待分类文本数据获得目标分类结果;采用文本分类模型和规则引擎结合处理多标签文本数据集获得分类结果,兼顾了分类模型中的不同类别之间的相关性,并且分类精度提升5%,有效提高了多标签文本数据分类的准确性。
技术领域
本申请涉及文本处理领域,具体涉及一种多标签文本分类方法、系统及计算机设备。
背景技术
多标签文本分类作为自然语言处理领域一项基本的任务,已经被应用到多个场景下,比如用于到智能问答中的意图识别,评论中的情感分类、新闻分类等,当然也可以用于个人信息的分类。当前多标签文本分类任务中越来越多的用到了预训练语言模型,目前的多标签文本分类任务使用的模型大多是基于BERT/ALBERT,XLNet等语言模型,结合textCNN,FC模块形成的文本分类模型。现有的多标签文本分类一般是基于BERT/ALBERT语言模型,获取文本数据的动态向量,然后将获取的语义表示输入到LSTM层,获取局部的语义特征,最后通过全连接层输出类别标签。但在某些特定场景下,比如个人敏感信息的分类,现有的多标签文本分类模型还是准确率不高,不能兼顾到某些类别之间的一些相关性。
随着图卷积神经网络的发展,也出现了将图卷积神经网络应用到多标签文本分类任务的方法,该方法将类别标签作为节点,建立图G,然后将图G输入图卷积网络,得到类别标签的节点表示向量,然后结合语义向量表示,通过sigmoid激活函数输出每个类别的置信度。使用图卷积网络可以解决类别之间的关系信息。
但对于细粒度的文本分类,该方法准确率仍然不高,例如:针对个人健康信息分类任务中,具体的类别包含病症描述、住院志、医嘱单、医疗检验报告、手术及麻醉记录、用药记录、药物食物过敏记录、家族遗传病史、个人病史、吸烟史、饮酒史等,这些类别中存在相关性,比如个人病史中包含了病症描述,家族遗传病包含个人病史等,现有的分类方法很难体现这种类别之间的相关性;另外有些文本包含大量的生僻字或词语,比如用药记录包含大量的药品名称,这些药品名称有很多是生僻字,通用文本中不常见,这也导致当前文本分类仍然不够准确。
发明内容
本申请目的是:提供一种能够准确对多标签文本进行分类的多标签文本分类方法、系统及计算机设备。
本申请的技术方案是:第一方面,本申请提供一种多标签文本分类方法,所述方法包括:
获取多标签文本数据集,所述多标签文本数据集中包括标注有类别标签的个人健康信息文本数据;
基于所述多标签文本数据集训练预先建立的文本分类工具获得目标文本分类工具;所述预先建立的文本分类工具包括预设文本分类模型和预设规则引擎,所述目标文本分类工具包括目标文本分类模型和目标规则引擎;
基于所述目标文本分类工具处理待分类文本数据获得目标分类结果。
在一种较佳的实施方式中,所述获取多标签文本数据集之后,所述基于所述多标签文本数据集训练预先建立的文本分类工具获得目标文本分类工具之前,所述方法还包括:
按预设比例将所述多标签文本数据集分为训练集、验证集和测试集;
所述预设文本分类模型至少包括DeBERTa预训练语言模型模块、全连接层模块和激活函数模块;
所述基于所述多标签文本数据集训练预先建立的文本分类工具获得目标文本分类工具包括:
基于所述训练集和预设训练参数训练所述预设文本分类工具以确定所述预设文本分类模型的学习参数并基于所述验证集选择所述预设文本分类模型的超参数获得中间文本分类模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海众至科技有限公司,未经上海众至科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210608524.3/2.html,转载请声明来源钻瓜专利网。