[发明专利]文本可读性评估方法、装置、设备及存储介质在审
申请号: | 202210160809.5 | 申请日: | 2022-02-22 |
公开(公告)号: | CN114548098A | 公开(公告)日: | 2022-05-27 |
发明(设计)人: | 周梦原 | 申请(专利权)人: | 中国平安人寿保险股份有限公司 |
主分类号: | G06F40/289 | 分类号: | G06F40/289;G06K9/62;G06N3/04;G06N3/08;G06Q10/06 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 黄达荣 |
地址: | 518000 广东省深圳市福田区福田街道益田路5033号平安*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本 可读性 评估 方法 装置 设备 存储 介质 | ||
1.一种文本可读性评估方法,其特征在于,包括:
获取阅读资料的文本数据;
根据所述文本数据对通用领域的roberta模型进行预训练,得到预训练权重;
从所述文本数据中选取部分数据进行标注打分,以构建标注数据集;
搭建初始Roberta阅读难度打分模型,加载所述通用领域的roberta模型进行预训练后的所述预训练权重作为初始权重;
采用所述标注数据集对所述初始Roberta阅读难度打分模型进行训练,得到训练好的Roberta阅读难度打分模型;
将待判断阅读难度的文本数据输入训练好的所述Roberta阅读难度打分模型中进行预测打分评估。
2.根据权利要求1所述的文本可读性评估方法,其特征在于,所述根据所述文本数据对通用领域的roberta模型进行预训练,得到预训练权重,包括:
加载通用领域的roberta预训练模型;
采用继续预训练框架语言模型在所述文本数据上预训练3个Epoch,得到预训练权重并进行保存。
3.根据权利要求1所述的文本可读性评估方法,其特征在于,所述标注数据集包括标注得分在0分至1分之间的第一档数据集、标注得分在1分至2分之间的第二档数据集、标注得分在2分至3分之间的第三档数据集、标注得分在3分至4分之间的第四档数据集以及标注得分在4分至5分之间的第五档数据集,其中,所述标注得分由评估者进行评估打分得出。
4.根据权利要求2所述的文本可读性评估方法,其特征在于,所述Roberta阅读难度打分模型,采用以下方式搭建而成:
构建Roberta-Base模型,加载所述通用领域的roberta模型进行预训练后的所述预训练权重,在每一层增加两个全连接层和多个并行的dropout层;
将每层预训练的输出数据输入到第一个所述全连接层中,将第一个所述全连接层的输出数据分别输入到多个所述dropout层中;
将多个所述dropout的输出数据进行求和,输入到第二个所述全连接层中,其中,第二个所述全连接层为分类全连接层。
5.根据权利要求4所述的文本可读性评估方法,其特征在于,所述对所述初始Roberta阅读难度打分模型进行训练,包括:
在训练过程中对不同的预训练层设置不同的学习率,加入FGM对抗训练对Embedding层的进行随扰动以增大模型鲁棒性,采用动态padding的方法减少模型运算量。
6.根据权利要求5所述的文本可读性评估方法,其特征在于,在对所述初始Roberta阅读难度打分模型进行训练的过程中,每一层的损失函数为第一损失函数与第二损失函数之和,其中:
第一损失函数为CrossEntropy损失函数:
其中,x是输入的所述标注数据集,class是需要计算的类别,y是整体的各个类别;
第二损失函数为基于对比学习的NtxLoss损失函数:
其中,i表示所述标注数据集的正样本,j表示所述标注数据集的负样本,li,j表示所述标注数据集的对比损失,zi为数据i的向量表示,zj为数据j的向量表示,sim()表示计算所述标注数据集的正样本和负样本的相似度。
7.根据权利要求6所述的文本可读性评估方法,其特征在于,在进行预测打分评估的过程中,将所有注意力层的输出分类概率相加并求平均值,得到最终的输出概率,其中概率最大的作为输出打分数值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国平安人寿保险股份有限公司,未经中国平安人寿保险股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210160809.5/1.html,转载请声明来源钻瓜专利网。