[发明专利]一种基于知识图谱的对话方法、介质及系统在审
申请号: | 202110756285.1 | 申请日: | 2021-07-05 |
公开(公告)号: | CN113609301A | 公开(公告)日: | 2021-11-05 |
发明(设计)人: | 王晴晴;肖力强;金耀辉;何浩 | 申请(专利权)人: | 上海交通大学 |
主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F16/332 |
代理公司: | 上海恒慧知识产权代理事务所(特殊普通合伙) 31317 | 代理人: | 张宁展 |
地址: | 200240 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 知识 图谱 对话 方法 介质 系统 | ||
1.一种基于知识图谱的对话方法,其特征在于包括以下步骤:
S1、编码器程序模块对所有对话历史进行拼接获得输入序列,对所述输入序列进行嵌入,获得所述对话历史的向量表示;
S2、知识图谱嵌入程序模块对若干知识条目进行嵌入,获得所述若干知识条目的向量表示;
S3、多头注意力机制程序模块针对所述对话历史的向量表示对于每个所述知识条目的向量表示计算注意力分数;
S4、多头注意力机制程序模块利用所述注意力分数综合所述知识条目获得所述知识条目的上下文向量;
S5、解码器程序模块将输入的所述知识条目的上下文向量以及所述对话历史的向量表示进行解码,获得机器回复。
2.根据权利要求1所述的一种基于知识图谱的对话方法,其特征在于所述编码器程序模块或者知识图谱嵌入程序模块是采用双向序列编码的基于Transformer网络的编码器程序模块或者知识图谱嵌入程序模块,所述Transformer网络由嵌入层、位置编码层、若干交替的注意力层和线性前向层组成;所述Transformer网络的注意力层和线性前向层均可以看到双向的内容;所述步骤S1或者S2具体包括以下步骤:
S11、将对话历史X或者知识条目链接成一个文字序列[w1,w2,...,wl],序列长度为l,输入所述Transformer网络;所述Transformer网络嵌入层对文字序列[w1,w2,...,wl]进行嵌入获得文字向量[e1,e2,...,el];
S12、所述Transformer网络位置编码层对所述文字向量[e1,e2,...,el]进行位置嵌入得到隐向量其中是与所述文字向量[e1,e2,...,el]维度相同的位置向量,使用随机初始化,在所述Transformer网络训练中进行学习;
S13、所述隐向量h(0)依次经过所述若干交替的注意力层和线性前向层获得对话历史的向量表示或者知识条目的向量表示,具体的:
S131、所述注意力层计算多头自注意力:MultiHeadAtt(h(i))=Concat(head1,...,headh)Wc,其中head1表示所述多头注意力的一个头head1=Att(h(i-1)),其中Att表示普通点乘自注意,i表示第i个注意力层;
S132、所述注意力层与前注意力层输出使用残差方式进行层归一化:h(i)=Norm(MultiHeadAtt(h(i-1))+h(i-1)),其中h(i)表示第i个交替的注意力层和线性前向层的所有隐向量,MultiHeadAtt表示注意力层,Norm表示层归一化操作;
S133、所述线性前向层与前线性前向层输出使用残差方式进行层归一化:h(i)=Norm(FFN(h(i-1))+h(i-1)),其中FFN表示线形前向层。
3.根据权利要求2所述的一种基于知识图谱的对话方法,其特征在于所述步骤S3具体为:所述对话历史的向量表示经过一个线性层作为询问Q,所述知识条目的向量表示经过一个线性层作为键K和值V,计算所述注意力分数:
其中为Q,K,V的向量维度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110756285.1/1.html,转载请声明来源钻瓜专利网。