[发明专利]用于文本匹配的BERT模型的预训练方法、计算机装置和存储介质有效
申请号: | 202110745018.4 | 申请日: | 2021-06-30 |
公开(公告)号: | CN113434699B | 公开(公告)日: | 2023-07-18 |
发明(设计)人: | 吴天博;王健宗 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F40/247;G06F40/30;G06F18/27;G06N3/047;G06N3/045;G06N3/08 |
代理公司: | 广州嘉权专利商标事务所有限公司 44205 | 代理人: | 孙浩 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种BERT模型的预训练方法,包括加载BERT模型,BERT模型调用多个注意力机制模块,获取掩模矩阵,将训练数据、知识矩阵以及掩模矩阵分别输入至各注意力机制模块进行处理,获取各注意力机制模块的输出,对各注意力机制模块的输出进行字符串拼接和线性化处理,获得语义向量,根据语义向量与掩模矩阵的比较结果,确定训练损失值,对注意力机制模块的网络参数进行调整等步骤。本发明可以将知识矩阵直接嵌入到BERT模型的多头注意力机制中,即使不引入使用外部知识的预训练任务对BERT模型进行预训练,也可以增强BERT模型在文本匹配任务中的同义词理解和识别能力。本发明可广泛应用于自然语言技术领域。 | ||
搜索关键词: | 用于 文本 匹配 bert 模型 训练 方法 计算机 装置 存储 介质 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202110745018.4/,转载请声明来源钻瓜专利网。