[发明专利]一种基于注意力和有效程度的BERT模型打分方法在审

专利信息
申请号: 202111640662.1 申请日: 2021-12-29
公开(公告)号: CN114330556A 公开(公告)日: 2022-04-12
发明(设计)人: 徐嘉昊;张帆 申请(专利权)人: 绍兴兰红智能科技有限公司
主分类号: G06K9/62 分类号: G06K9/62;G06F16/215;G06F40/279;G06F40/30
代理公司: 绍兴市寅越专利代理事务所(普通合伙) 33285 代理人: 潘敏
地址: 312000 浙江省绍兴市*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 注意力 有效 程度 bert 模型 打分 方法
【权利要求书】:

1.一种基于注意力和有效程度的BERT模型打分方法,其特征在于,包括以下步骤:

(1)获取待打分的数据集,将数据集进行有效程度的预处理;

(2)在BERT模型的网络层后,引入注意力机制;

(3)采用引入注意力机制的BERT模型,对预处理后的数据集进行打分处理。

2.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤(1)中,对数据集进行有效程度的预处理,包括以下步骤:

11)对数据集中的数据清洗,去除数据中的无关符号;

12)将清洗后的数据按照句子形式进行划分,并在每条句子前后分别加上识别标识。

3.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤11)中,数据清洗内容包括特殊标点符号、空白字符、空格、时间标识、非中文标点符号以及将英文单词大写转为小写。

4.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤12)中,按照设定的数据长度,将数据句子在长度范围内截断分割,然后在每条句子前后分别加上识别符号。

5.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤(2)中,所述的注意力机制是指分配给BERT模型的网络层输出的每个上下文特征向量不同的权重,获取句子的全局语义信息。

6.根据权利要求1所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤(3)中,对预处理后的数据集进行打分处理,包括以下步骤:

21)设输入的句子为S,其含有t个字符,且t在设定的数据长度内,则将{[CLS],P1,P2,...,Pt,[SEP]}作为BERT模型的输入序列,其中,[CLS]为开始识别标识,[SEP]为结束识别标识,Pt为该句子中的单个字符;

22)获取句子S的表示序列W=[W1,W2,W3,...,Wm];

23)将序列W=[W1,W2,W3,...,Wm]作为BERT模型网络层的输入序列,得到句子S在网络层的输出序列K=[K1,K2,K3,...,Km];

24)引入注意力机制,获取句子的全局语义信息,即获取句子关系预测的向量M;

25)将整个句子的向量M放入到softmax分类器中,对实体关系类型进行预测,获取打分结果。

7.根据权利要求6所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤24)中,关系预测的向量M=KαT,其中α=softmax(YTQ),Q=tan m(M),Q为待学习的参数矩阵。

8.根据权利要求6所述的一种基于注意力和有效程度的BERT模型打分方法,其特征在于,在步骤25)中,打分结果输出公式为:G=argmaxJ(g/S),其中,J(g/S)=softmax(QM+d),d为偏差向量,Q为参数矩阵。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于绍兴兰红智能科技有限公司,未经绍兴兰红智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202111640662.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top