[发明专利]一种基于预训练模型的阅读理解去偏方法在审

专利信息
申请号: 202211222708.2 申请日: 2022-10-08
公开(公告)号: CN115526148A 公开(公告)日: 2022-12-27
发明(设计)人: 于舒娟;吴梦洁;赵阳;张虎;张昀 申请(专利权)人: 南京邮电大学
主分类号: G06F40/126 分类号: G06F40/126;G06K9/62
代理公司: 南京纵横知识产权代理有限公司 32224 代理人: 董建林
地址: 210023 *** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 训练 模型 阅读 理解 偏方
【权利要求书】:

1.一种基于预训练模型的阅读理解去偏方法,其特征在于:包含步骤如下:

以预训练模型BERT嵌入层为基础构建文本表示层,设定模型输入为文章-问题构成的句子对,将输入句子映射为句子向量;

对位置编码进行两次随机正则化操作,得到两个随机子模型并计算KL散度,评估其输出分布差异性,更新句子向量输入BERT编码器;

将BERT编码器最后一个隐层输出通过全连接层与分类器,以交叉熵损失与KL散度之和计算样本的预测损失,在模型训练过程中根据样本的预测损失优化预训练参数,去除阅读理解位置偏差。

2.根据权利要求1所述的基于预训练模型的阅读理解去偏方法,其特征在于:

对位置编码进行两次随机正则化操作,包括:

采用dropout技术对BERT初始化的位置编码按概率进行两次随机置0操作,获得两个被弱化位置信息的位置编码向量,并取它们的均值与其余编码相加得到更新的句子向量,用公式表示为:

其中,L表示为输入序列的最大长度;d表示为每个token向量表示的长度;表示更新后的句子向量;表示每个token对照词表组成的Token embedding;表示改进前的位置编码;表示区分问题与文章的Segment embedding;表示随机置零操作。

3.根据权利要求2所述的基于预训练模型的阅读理解去偏方法,其特征在于:

所述L为512,所述d为768。

4.根据权利要求1所述的基于预训练模型的阅读理解去偏方法,其特征在于:

所述KL散度计算公式为:

其中i表示第i组训练样本,表示KL散度的计算,和表示位置编码在dropout操作后两个不同的子模型产生的不同分布,由于 KL 散度本身具有不对称性,需要交换这两种分布的位置,最终得到平均处理过的KL散度。

5.根据权利要求1所述的基于预训练模型的阅读理解去偏方法,其特征在于:

所述的BERT编码器为Transformer编码器结构,包括堆叠的12层编码模块,每层编码模块的隐藏状态尺寸为768,并包括12个注意力头。

6.根据权利要求1所述的基于预训练模型的阅读理解去偏方法,其特征在于:

所述损失函数包括交叉熵与正则化位置编码的KL散度,交叉熵与正则化位置编码的KL散度的比例由可调超参数决定,交叉熵损失与总训练损失和的具体计算公式为:

其中,i表示第i组训练样本;N表示样本数量;表示答案在第i个样本中的真实起始位置; 表示答案在第i个样本中的真实结束位置;表示预测文本序列每个位置是答案起始位置的概率;是交叉熵与正则化位置编码的KL散度比例的可调超参数;表示交叉熵损失值,表示正则化位置编码的KL散度值,表示总训练损失和。

7.根据权利要求1所述的基于预训练模型的阅读理解去偏方法,其特征在于:

模型训练使用的数据集为抽取式阅读理解数据集SQuAD1.1及其依照答案所在文章段落的位置划分而成的子数据集,在达到最佳精确度时对应的KL散度与交叉熵之比为3,dropout随机置0概率为0.1。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211222708.2/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top