[发明专利]基于注意力循环门控图卷积网络的关系提取方法及系统在审

专利信息
申请号: 202010850462.8 申请日: 2020-08-21
公开(公告)号: CN111985245A 公开(公告)日: 2020-11-24
发明(设计)人: 钱雪忠;王晓霞 申请(专利权)人: 江南大学
主分类号: G06F40/30 分类号: G06F40/30;G06N3/04;G06N3/08
代理公司: 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 代理人: 张荣
地址: 214122 江*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 注意力 循环 门控 图卷 网络 关系 提取 方法 系统
【权利要求书】:

1.一种基于注意力循环门控图卷积网络的关系提取方法,其特征在于,包括如下步骤:

步骤S1:对语句进行语义依存分析,为每个输入语句构建一个唯一的依赖树,使用预训练的词向量获得单词嵌入表示,将单词嵌入与位置特征相连接,得到最终的单词嵌入表示;

步骤S2:构建BLSTM网络层,设置BLSTM网络结构的各项超参数数值,将所述最终的单词嵌入表示输入到所述BLSTM网络中,提取单词上下文特征向量;

步骤S3:对所述依赖树应用注意力机制,将所述依赖树转化为全连通图,得到带有权重信息的全连通图的软邻接矩阵;

步骤S4:将所述单词上下文特征向量和软邻接矩阵传入门控图卷积网络中,提取高阶语义依赖特征,得到语句的向量表示;

步骤S5:将两个标记实体的向量表示抽取出来并与所述语句的向量表示拼接,传入所述门控图卷积网络的全连接层中,计算每个关系类型的概率以及预测关系类别,得到所有训练示例,通过所述门控图卷积网络不断训练得到最优的网络模型,最终得到语句的关系类别。

2.根据权利要求1所述的基于注意力循环门控图卷积网络的关系提取方法,其特征在于:使用预训练的词向量获得单词嵌入向量表示:wi=W*vi其中,W为Glove词向量矩阵,vi表示单词的one-hot向量表示,wi表示第i个单词的词嵌入向量。

3.根据权利要求1所述的基于注意力循环门控图卷积网络的关系提取方法,其特征在于:所述最终的单词嵌入表示为:xi=[wi,p1,p2],其中第i个单词相对于预先标记的第一实体和第二实体的位置特征分别表示为p1和p2,wi表示第i个单词的词嵌入向量。

4.根据权利要求1所述的基于注意力循环门控图卷积网络的关系提取方法,其特征在于:所述BLSTM网络层包括两层LSTM,在两层LSTM上分别对前向句子序列和反向句子序列进行编码。

5.根据权利要求4所述的基于注意力循环门控图卷积网络的关系提取方法,其特征在于:在两层LSTM上分别对前向句子序列和反向句子序列进行编码时,编码的过程为:it=σ(Wxixt+Whiht-1+Wcict-1+bi);ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf);gt=tanh(Wxgxt+Whght-1+Wcgct-1+bg);ot=σ(Wxoxt+Whoht-1+Wcoct+bo);其中,σ代表sigmoid激活函数;代表向量元素相乘;xt表示时间t时刻的输入向量;ht表示隐藏状态;Wxi、Wxf、Wxg、Wxo表示xt在不同门机制上的权重矩阵;Whi、Whf、Whg、Who表示ht在不同门机制上的权重矩阵;b代表偏差参数,在第t时刻,BLSTM的前向输出为反向输出为将两个方向的输出拼接得到最终t时刻的输出ht

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202010850462.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top