[发明专利]一种基于多任务学习机制的自然语言关系抽取方法有效
申请号: | 202010014221.X | 申请日: | 2020-01-07 |
公开(公告)号: | CN111241279B | 公开(公告)日: | 2020-10-30 |
发明(设计)人: | 胡文心;王伟杰;杨静 | 申请(专利权)人: | 华东师范大学 |
主分类号: | G06F16/35 | 分类号: | G06F16/35;G06F40/289;G06N3/04;G06N3/08 |
代理公司: | 上海蓝迪专利商标事务所(普通合伙) 31215 | 代理人: | 徐筱梅;张翔 |
地址: | 200241 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 任务 学习 机制 自然语言 关系 抽取 方法 | ||
1.一种基于多任务学习机制的自然语言关系抽取方法,其特征在于,该方法包括以下具体步骤:
步骤1:依据通用NLP模型基准,选取其中与关系抽取任务的训练数据类似的分类任务,即训练数据同时能够用于关系抽取任务训练的任务,作为训练多任务模型的辅助任务;
步骤2:将输入的句子或句子对经过WordPiece分词之后得到子词序列,将每个辅助任务的训练数据根据数据集大小按比例采样并混合之后送入预训练语言模型进行统一训练;
步骤3:使用预训练语言模型编码工具对输入数据进行编码表示;
步骤4:对关系抽取任务及辅助任务分别建立独立的单任务模型;
步骤5:利用建立的单任务模型,基于知识蒸馏进行多任务模型训练和预测
使用关系抽取任务的单任务模型作为初始多任务模型来对辅助任务进行预测输出,最小化该输出与辅助任务对应的单任务模型预测输出的交叉熵,同时使用退火算法,即按比例混合模型输出与任务真实标签来优化模型性能,从而实现模型的训练,最终得到多任务模型用于预测关系抽取;其中:
所述知识蒸馏,具体为:通过同时将提前训练的单任务模型的输出和单任务模型的真实标签按照一个随着训练流程不断改变的比例作为权重加权平均之后作为多任务模型训练时的目标输出,即单任务模型和真实标签同时用于多任务模型的训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学,未经华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010014221.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:重题检测方法、相关设备及可读存储介质
- 下一篇:一种隔墙异形连接结构