[发明专利]一种对话生成方法、装置、计算机设备及存储介质在审
| 申请号: | 202010350563.9 | 申请日: | 2020-04-28 |
| 公开(公告)号: | CN111666391A | 公开(公告)日: | 2020-09-15 |
| 发明(设计)人: | 汤智尧 | 申请(专利权)人: | 中国平安人寿保险股份有限公司 |
| 主分类号: | G06F16/332 | 分类号: | G06F16/332;G06F40/211;G06F40/30;G06N3/04;G06N3/08 |
| 代理公司: | 深圳众鼎专利商标代理事务所(普通合伙) 44325 | 代理人: | 谭果林 |
| 地址: | 518000 广东省深圳市福田*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 对话 生成 方法 装置 计算机 设备 存储 介质 | ||
1.一种对话生成方法,其特征在于,包括:
接收用户输入的第一输入语句;
根据所述第一输入语句来判断是否陷入僵局状态,其中,所述僵局状态为无法回复所述第一输入语句的状态;
若陷入所述僵局状态,则获取所述第一输入语句对应的上一轮对话的第二输入语句和第一回复语句,所述第一回复语句与所述第二输入语句相对应;
将所述第二输入语句作为预设transformer模型的编码器的输入,将所述第一回复语句作为预设transformer模型的解码器的输入,将所述第二输入语句和所述第一回复语句输入至所述预设transformer模型,得到与所述第二输入语句相关联的第二回复语句;
将所述第二回复语句作为第一输入语句的回复语句进行回复。
2.如权利要求1所述的对话生成方法,其特征在于,所述预设transformer模型是通过如下方式训练得到:
收集对话训练数据,其中,每一条所述对话训练数据包括对话训练输入语句和所述对话训练输入语句对应的对话训练回复语句;
利用所述对话训练输入语句和所述对话训练回复语句对transformer模型进行训练;
每隔一代epoch存储一次transformer模型,得到多个所述transformer模型的损失函数,其中,交叉熵作为训练预设transformer模型的损失函数,adam作为transformer模型的优化器;
对比多个所述transformer模型的损失函数,选取所述损失函数最低的transformer模型作为所述预设transformer模型。
3.如权利要求1所述的对话生成方法,其特征在于,所述预设transformer模型的编码器包括6层编码神经网络,其中,每层所述编码神经网络包括512个隐层单元;所述预设transformer模型的解码器包括6层解码神经网络,其中,每层所述解码神经网络包括512个隐层单元;其中,所述预设transformer模型的multi head多头力的数量设置为8。
4.如权利要求1所述的对话生成方法,其特征在于,所述根据所述第一输入语句来判断是否陷入僵局状态,包括:
解析所述第一输入语句,提取出所述用户语意特征信息,其中,用户语意特征信息包括句型、语气信息和语言行为信息;
根据所述句型、语气信息和语言行为信息,提取出所述第一输入语句中的核心词;
从预设僵局数据库中查询是否有所述核心词,得到查询结果;
利用所述查询结果来判断是否陷入所述僵局状态。
5.如权利要求4所述的对话生成方法,其特征在于,所述利用查询结果来判断是否陷入所述僵局状态,包括:
若查询结果为从所述预设僵局数据库中查询有所述核心词,则判定为陷入僵局状态;
若查询结果为从所述预设僵局数据库中查询没有所述核心词,则判定为没有陷入僵局状态。
6.如权利要求1-5任一项所述的对话生成方法,其特征在于,在所述根据所述第一输入语句来判断是否陷入僵局状态之后,还包括:
若不是陷入所述僵局状态,则将所述第一输入语句输入到预设闲聊对话模块,以通过所述预设闲聊对话模块生成与所述第一输入语句相关联的第三回复语句,其中,预设闲聊对话模块为利用基于统计的N-gram语言模型所训练生成;
将所述第三回复语句作为第一输入语句的实际答复进行回复。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国平安人寿保险股份有限公司,未经中国平安人寿保险股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010350563.9/1.html,转载请声明来源钻瓜专利网。





