[发明专利]文本生成模型的训练方法、装置及可读存储介质在审
申请号: | 202011086728.2 | 申请日: | 2020-10-12 |
公开(公告)号: | CN112149415A | 公开(公告)日: | 2020-12-29 |
发明(设计)人: | 胡晓林;刘涵;李建民 | 申请(专利权)人: | 清华大学 |
主分类号: | G06F40/284 | 分类号: | G06F40/284;G06F40/253;G06N3/04 |
代理公司: | 北京林达刘知识产权代理事务所(普通合伙) 11277 | 代理人: | 刘新宇 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 文本 生成 模型 训练 方法 装置 可读 存储 介质 | ||
本公开涉及一种文本生成模型的训练方法、装置及可读存储介质。该文本生成模型的训练方法,包括:获取文本生成模型生成的第一文字序列;利用预设词库中的替换词,替换第一文字序列中的目标词,以得到第二文字序列;根据损失函数的值,调整文本生成模型的模型参数,得到训练后的文本生成模型,训练后的文本生成模型用于根据输入内容生成所述输入内容对应的文字序列。根据本公开实施例的文本生成模型的训练方法、装置及可读存储介质,能够基于内容变化和长度变化向模型反馈生成的文字序列中各目标词是否准确,从而使模型得到更多的指导信息,提高生成文字序列的准确度。
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种文本生成模型的训练方法、装置以及可读存储介质。
背景技术
文本生成可以是指以文字序列为输出形式的自然语言处理,通常应用在机器翻译、语音识别、图像描述、视频描述等任务中。
目前的文本生成模型的训练方法,例如:自我评估序列训练(Self-CriticalSequence Training,SCST)方法,SCST是一种通过将随机选词的结果和根据最大概率选词的结果进行比较来优化模型的强化学习算法,虽然在模型训练上取得了一定的训练效果,但训练出的模型所生成的文本的准确度仍有待提升。
发明内容
有鉴于此,本公开提出了一种文本生成模型的训练方法、装置及可读存储介质,以提高文本生成模型生成文字序列的准确度。
根据本公开的一方面,提供了一种文本生成模型的训练方法,包括:获取文本生成模型生成的第一文字序列;
利用预设词库中的替换词,替换所述第一文字序列中的目标词,以得到第二文字序列;
根据损失函数的值,调整所述文本生成模型的模型参数,得到训练后的文本生成模型,所述训练后的文本生成模型用于根据输入内容生成所述输入内容对应的文字序列;
其中,所述损失函数包括根据第二文字序列相对于第一文字序列的内容变化和长度变化确定的第一损失函数。
在一种可能的实现方式中,所述内容变化通过文本内容变化评分表示,所述长度变化通过文本长度变化评分表示;
所述第一损失函数根据所述文本内容变化评分和所述文本长度变化评分确定。
在一种可能的实现方式中,所述文本生成模型的训练方法还包括:
根据所述第一文字序列的n元语法的第一频数,和所述第二文字序列的n元语法的第二频数,确定文本内容变化评分。
在一种可能的实现方式中,根据所述第一文字序列的n元语法的第一频数,和所述第二文字序列的n元语法的第二频数,确定所述文本内容变化评分,包括:
确定所述第一频数构成的第一频数向量,和所述第二频数构成的第二频数向量;
在设定所述第二文字序列相对于第一文字序列长度不变的情况下,根据所述第二频数向量和所述第一频数向量分别对应的自然语言评价指标之间差值,确定所述文本内容变化评分,
所述自然语言评价指标根据文字序列的频数向量和长度确定。
在一种可能的实现方式中,确定所述第二频数构成的第二频数向量,包括:
在以替换词替换第一文字序列中的目标词时,以目标词结尾的n元语法的第二频数相对于第一频数减1,以替换词结尾的n元语法的第二频数相对于第一频数加1,其它n元语法的第二频数相对于第一频数不变。
在一种可能的实现方式中,所述文本生成模型的训练方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011086728.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种水下图像的悬浮微粒特征分割提取方法
- 下一篇:一种电子雾化装置