[发明专利]重打分模型训练方法、语音识别方法及相关装置有效
申请号: | 201911413152.3 | 申请日: | 2019-12-31 |
公开(公告)号: | CN111179916B | 公开(公告)日: | 2023-10-13 |
发明(设计)人: | 李安;陈江;胡正伦;傅正佳 | 申请(专利权)人: | 广州市百果园信息技术有限公司 |
主分类号: | G10L15/06 | 分类号: | G10L15/06;G10L15/26;G10L25/69 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 孟金喆 |
地址: | 511400 广东省广州市番*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 打分 模型 训练 方法 语音 识别 相关 装置 | ||
1.一种重打分模型训练方法,其特征在于,包括:
获取语音数据样本的多个语音识别结果和所述语音数据样本的第一标签,所述第一标签为预先标注的所述语音数据样本的标签;
获取每一种语音识别结果在多个不同语言模型下的分数;
基于所述语音识别结果、所述分数和所述第一标签获得所述语音数据样本用于重打分模型训练的样本特征向量和第二标签;
采用所述样本特征向量和所述第二标签训练模型,得到用于对所述语音识别结果进行重打分的重打分模型。
2.根据权利要求1所述的方法,其特征在于,所述获取语音数据样本的多个语音识别结果和所述语音数据样本的第一标签,包括:
将所述语音数据样本输入解码模型中得到多个语音识别结果,所述语音数据样本具有预先标注的第一标签;
提取预设数量的语音识别结果作为所述语音数据样本的多个语音识别结果。
3.根据权利要求1所述的方法,其特征在于,所述获取每一种语音识别结果在多个不同语言模型下的分数,包括:
将每一种语音识别结果分别输入多个不同语言模型中,获得所述语音识别结果在不同语言模型下的分数。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述语言模型包括声学模型、n-gram语言模型和RNNLM语言模型。
5.根据权利要求1所述的方法,其特征在于,所述基于所述语音识别结果、所述分数和所述第一标签获得所述语音数据样本用于重打分模型训练的样本特征向量和第二标签,包括:
针对每个语音识别结果,对所述语音识别结果进行分析以提取所述语音识别结果的句词结构特征;
将所述语音识别结果在多个不同语言模型下的分数和所述句词结构特征组合为所述语音识别结果的样本特征向量;
采用所述语音识别结果和所述第一标签计算所述语音识别结果的字符错误率作为所述语音识别结果的第二标签。
6.根据权利要求5所述的方法,其特征在于,所述句词结构特征包括以下至少一项:
词频统计特征、字频统计特征、字或词排序特征、句子长度特征、字数、词数。
7.根据权利要求1所述的方法,其特征在于,在所述采用所述样本特征向量和所述第二标签训练模型,得到重打分模型之前,包括:
对所述样本特征向量进行归一化处理,得到归一化处理后的样本特征向量。
8.根据权利要求7所述的方法,其特征在于,所述对所述样本特征向量进行归一化处理,得到归一化处理后的样本特征向量,包括:
在所有样本特征向量中确定出最大样本特征向量和最小样本特征向量;
采用所述最大样本特征向量和最小样本特征向量计算差值得到向量差值;
计算所述样本特征向量和所述向量差值的比值作为所述样本特征向量归一化处理后的样本特征向量。
9.根据权利要求7或8所述的方法,其特征在于,所述采用所述样本特征向量和所述第二标签训练模型,得到重打分模型,包括:
初始化模型参数;
将所述语音识别结果归一化处理后的样本特征向量输入所述模型中获得所述语音识别结果的预估字符错误率;
采用所述预估字符错误率和所述第二标签计算损失率;
在所述损失率未满足预设条件时,采用所述损失率计算梯度;
采用所述梯度调整所述模型参数,返回将所述语音识别结果归一化处理后的样本特征向量输入所述模型中获得所述语音识别结果的预估字符错误率的步骤。
10.根据权利要求9所述的方法,其特征在于,所述采用所述预估字符错误率和所述第二标签计算损失率,包括:
将所述预估字符错误率和所述第二标签代入预设的均方损失函数中计算得到损失率。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州市百果园信息技术有限公司,未经广州市百果园信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911413152.3/1.html,转载请声明来源钻瓜专利网。