[发明专利]一种基于对话历史建模的多轮对话生成方法及装置有效

专利信息
申请号: 202110259589.7 申请日: 2021-03-10
公开(公告)号: CN112966083B 公开(公告)日: 2022-08-12
发明(设计)人: 凌艳香;蔡飞;陈洪辉;杨文静;梁政;张清辉;王天琦;陶卿曌 申请(专利权)人: 中国人民解放军国防科技大学
主分类号: G06F16/332 分类号: G06F16/332;G06F16/33;G06F40/126;G06F40/242;G06F40/30;G06N3/04;G06N3/08
代理公司: 西安亿诺专利代理有限公司 61220 代理人: 李永刚
地址: 410073 湖*** 国省代码: 湖南;43
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 对话 历史 建模 轮对 生成 方法 装置
【权利要求书】:

1.一种基于对话历史建模的多轮对话生成方法,其特征在于包括:

通过神经网络,获得对话历史中每个语句的初始词级语义表示;

利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化,获取近邻感知的对话历史语义表示;

将对话历史中的最新语句定义为查询语句,先利用自注意力机制捕捉查询语句中词之间的关系,然后利用面向对话历史的注意力机制使查询语句自动从对话历史中吸收相关语义信息,得到对话历史增强的查询语义表示;

根据近邻感知的对话历史语义表示、对话历史增强的查询语义表示,通过神经网络逐词生成回复语句;

所述利用对话历史中各语句之间的显式回复关系对对话历史的语义表示过程进行优化具体包括:给定包含M条语句的多轮对话{U1,...,UM},M≥2,其中最后一条最新语句UM定义为查询语句,前M-1条语句序列U<M={U1,...,UM-1}定义为对话历史;

对于Um中的任一词wn,m,n∈[1,Nm],通过前向Transformer编码器将其进行如下重编码:

其中,q,k,v分别为Transformer编码器中注意力机制对应的查询向量、键向量和值向量;为词wn,m最终的向量表示;Nm为多轮对话{U1,...,UM}中任一语句Um,m∈[1,M]所包含词的个数;

对于第一个语句U1,设置Transformer编码器的注意力机制变为自注意力机制;

同理,对于后向Transformer编码器重编码过程为:

以上和分别表示词wn,m,n∈[1,Nm]经过和重编码后的向量表示;通过特征维度的向量拼接操作zn,m为词wn,m最终的重编码向量,它不仅包含词wn,m自身的语义特征,还纳入了邻居语句中相关的语义特征;

经过以上重编码过程,语句Um被重编码为将其每个词对应的重编码向量进行相加,得到Um的语句级别的表示,即

通过双向门控循环神经网络对对话历史的重编码向量进行轮次方向上的顺序整合,过程如下:

其中为Um,m∈[1,M-1]经过重编码后的向量表示;

被定义为对话历史U<M={U1,...,UM-1}的近邻语义感知的特征表示。

2.根据权利要求1所述基于对话历史建模的多轮对话生成方法,其特征在于:所述获得对话历史中每个语句的初始词级语义表示通过双向门控循环神经网络实现;所述生成回复语句通过单向门控循环神经网络实现。

3.根据权利要求1所述基于对话历史建模的多轮对话生成方法,所述对对话历史的语义表示过程进行优化,其特征在于:对对话历史中的任一历史语句进行重编码,使之能够保留其相邻历史语句的语义信息,通过轮次方向上的顺序整合进而获取近邻感知的对话历史语义表示。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110259589.7/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top