[发明专利]一种面向对话式知识图谱问答的问题重写方法及设备在审
| 申请号: | 202211348452.X | 申请日: | 2022-10-31 |
| 公开(公告)号: | CN116127085A | 公开(公告)日: | 2023-05-16 |
| 发明(设计)人: | 张鹏;张静;柯习睿 | 申请(专利权)人: | 北京智谱华章科技有限公司 |
| 主分类号: | G06F16/36 | 分类号: | G06F16/36;G06F40/30;G06F18/214 |
| 代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
| 地址: | 100084 北京市海淀*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 面向 对话 知识 图谱 问答 问题 重写 方法 设备 | ||
1.一种面向对话式知识图谱问答的问题重写方法,其特征在于,包括:
构建关系检索模型,同时构建当前问题和历史对话中的实体在背景知识图谱中的一阶关系构成的问题-关系对,将所述问题-关系对输入所述关系检索模型,得到对话历史相关三元组;
构建问题重写模型并进行预训练,将对话知识图谱问答集输入预训练后的所述问题重写模型,输出为重写问题伪标签数据;
基于所述对话历史相关三元组和重写问题伪标签数据集进行知识增强自训练,调整所述问题重写模型,将待重写的问题输入调整后的所述问题重写模型,得到独立完整的重写问题;
构建问题推理模型,将所述独立完整的重写问题输入所述问题推理模型,得到所述独立完整的重写问题的答案。
2.根据权利要求1所述的面向对话式知识图谱问答的问题重写方法,其特征在于,在构建问题重写模型并进行预训练的步骤中,包括:
采用序列到序列(Seq2Seq)语言模型(PLM)作为所述问题重写模型;
将历史问答对和当前问题连接得到输入PLM;
采用基于开放领域对话问答数据集,在带注释的重写问题的监督下,通过最大化生成所有K轮对话重写问题的概率,对PLM进行预训练。
3.根据权利要求1所述的面向对话式知识图谱问答的问题重写方法,其特征在于,在构建关系检索模型的步骤中,所述关系检索模型基于BERT模型,通过历史对话构造伪标签,以伪标签中的问题qm和关系rj作为BERT模型输入,将语义特征向量标记作为输出嵌入,以计算qm和rj之间的相关性得分,得到对话历史相关三元组。
4.根据权利要求3所述的面向对话式知识图谱问答的问题重写方法,其特征在于,通过所述关系检索模型,检索对话历史中的种子实体和每个答案实体于当前回合问题最相关的关系;将所述最相关的关系补充到所述对话历史中的相应实体;同时填充尾部实体,为所述问题重写模型提供选择。
5.根据权利要求1所述的面向对话式知识图谱问答的问题重写方法,其特征在于,知识增强自训练的目标函数是:
其中是原始问题的筛选后的伪标签;由于在整个数据集上选择了部分标签,生成的数据集对话数目N′和对话轮数K′i小于原始大小N和K。
6.根据权利要求1所述的面向对话式知识图谱问答的问题重写方法,其特征在于,所述问题推理模型为基于检索的问题推理模型;其中,
采用神经状态机NSM模型作为基于检索的问题推理模型,对于每个回合的重写问题首先识别其主题实体然后从每个主题实体检索一个τ-hop子图,并将它们合并为一个统一的子图最后使用答案作为监督信号来训练所述NSM模型;
所述NSM模型的目标函数定义为:
7.根据权利要求1所述的面向对话式知识图谱问答的问题重写方法,其特征在于,所述问题推理模型为基于语义解析的问题推理模型;其中,
采用语义解析模型作为基于语义解析的问题推理模型,其目标函数定义为:
其中,和表示所选伪数据集的对话个数和第i次对话的回合数。
8.一种面向对话式知识图谱问答的问题重写装置,其特征在于,包括:
关系检索模块,用于构建关系检索模型,同时构建当前问题和历史对话中的实体在背景知识图谱中的一阶关系构成的问题-关系对,将所述问题-关系对输入所述关系检索模型,得到对话历史相关三元组;
问题重写模块,用于构建问题重写模型并进行预训练,将对话知识图谱问答集输入预训练后的所述问题重写模型,输出为重写问题伪标签数据;
自训练模块,用于基于所述对话历史相关三元组和重写问题伪标签数据集进行知识增强自训练,调整所述问题重写模型,将待重写的问题输入调整后的所述问题重写模型,得到独立完整的重写问题;
问题推理模块,用于构建问题推理模型,将所述独立完整的重写问题输入所述问题推理模型,得到所述独立完整的重写问题的答案。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京智谱华章科技有限公司,未经北京智谱华章科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211348452.X/1.html,转载请声明来源钻瓜专利网。





