[发明专利]自然语言生成及模型的训练方法、装置、设备和存储介质有效
申请号: | 202110184842.7 | 申请日: | 2021-02-10 |
公开(公告)号: | CN112861548B | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 王硕寰;尚骏远;丁思宇;孙宇 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
主分类号: | G06F40/56 | 分类号: | G06F40/56;G06N3/04;G06N3/08 |
代理公司: | 北京鸿德海业知识产权代理有限公司 11412 | 代理人: | 田宏宾 |
地址: | 100085 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自然语言 生成 模型 训练 方法 装置 设备 存储 介质 | ||
1.一种自然语言生成方法,包括:
采用自然语言生成模型,根据用户文本对第一生成文本进行更新,以得到第二生成文本,所述第一生成文本的初始值采用所述自然语言生成模型,对所述用户文本进行处理后得到;
在未达到预设的第一更新结束条件时,将所述第二生成文本作为新的第一生成文本,采用所述自然语言生成模型,根据所述用户文本对所述新的第一生成文本进行更新,直至达到所述第一更新结束条件;
将达到所述第一更新结束条件时的第二生成文本,确定为所述用户文本对应的自然语言生成文本;
其中,所述第一更新结束条件包括:第一更新次数,所述方法还包括:
确定所述更新的更新次数,在所述更新次数小于所述第一更新次数时,判定未达到所述第一更新结束条件。
2.根据权利要求1所述的方法,其中,所述自然语言生成模型在训练时预设第二更新次数,所述第一更新次数小于或等于所述第二更新次数。
3.根据权利要求1-2任一项所述的方法,其中,所述自然语言生成模型包括:编码器和解码器,所述采用所述自然语言生成模型,根据所述用户文本对所述第一生成文本进行更新,以得到第二生成文本,包括:
采用所述编码器对所述用户文本进行编码处理,以得到编码结果;
采用所述解码器,对所述编码结果和所述第一生成文本进行解码处理,以得到第二生成文本。
4.一种自然语言生成模型的训练方法,包括:
获取训练数据,所述训练数据包括:已有输入数据、待修正数据和已有输出数据;
根据所述训练数据构建输入样本和输出样本;
采用自然语言生成模型,根据所述输入样本对第一生成结果进行更新,以得到第二生成结果,所述第一生成结果的初始值采用所述自然语言生成模型,对所述输入样本进行处理后得到;
在未达到预设的第二更新结束条件时,将所述第二生成结果作为新的第一生成结果,采用所述自然语言生成模型,根据所述输入样本对所述新的第一生成结果进行更新,直至达到所述第二更新结束条件;
根据达到所述第二更新结束条件时的第二生成结果,以及所述输出样本,调整所述自然语言生成模型的参数;
其中,所述获取训练数据,包括:
在已有的训练集中,获取已有数据,所述已有数据包括:已有输入数据和已有输出数据;
根据所述已有数据,获取待修正数据。
5.根据权利要求4所述的方法,其中,所述已有数据被分为预设的N份样本,所述N份样本中的各份样本包括至少一组样本,所述至少一组样本中的各组样本包括:已有输入数据和已有输出数据,所述根据所述已有数据,获取待修正样本,包括:
获取当前训练样本和当前应用样本,所述当前训练样本为所述N份样本中当前选择的(N-1)份样本,所述当前应用样本为所述N份样本中,除了所述当前选择的(N-1)份样本之外的1份样本;
采用所述当前训练样本,训练序列到序列模型;
将所述当前应用样本中的已有输入数据输入到所述序列到序列模型中,采用所述序列到序列模型对所述已有输入数据进行处理,将所述序列到序列模型的输出确定为所述当前应用样本中的已有输入数据对应的待修正数据。
6.根据权利要求5所述的方法,其中,所述采用所述当前训练样本,训练序列到序列模型,包括:
采用所述当前训练样本,对预训练模型进行微调,以得到序列到序列模型。
7.根据权利要求4-6任一项所述的方法,其中,所述根据所述训练数据构建输入样本和输出样本,包括:
将所述已有输入数据和所述待修正数据进行文本拼接,以得到拼接文本;
将所述拼接文本作为所述输入样本,将所述已有输出数据作为所述输出样本。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110184842.7/1.html,转载请声明来源钻瓜专利网。