[发明专利]语音唤醒模型的训练、唤醒方法、装置、设备及存储介质在审
申请号: | 202210356735.2 | 申请日: | 2022-04-06 |
公开(公告)号: | CN114842855A | 公开(公告)日: | 2022-08-02 |
发明(设计)人: | 邹赛赛;陈立;张若曦;贾磊;王海峰 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G10L17/22 | 分类号: | G10L17/22;G10L17/04;G10L15/06;G10L15/16;G10L15/22;G10L17/02;G10L17/18;G10L17/24 |
代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 孙静;臧建明 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音 唤醒 模型 训练 方法 装置 设备 存储 介质 | ||
1.一种语音唤醒模型的训练方法,包括:
获取语音识别训练数据,根据所述语音识别训练数据对基础模型进行语音识别训练,得到模型损失函数收敛时的基础模型的模型参数;所述基础模型包括编码模块和解码模块;
响应于用户发起的模型配置指令,基于所述基础模型的模型参数,更新所述基础模型中解码模块的配置参数,得到第一模型;
获取语音唤醒训练数据,根据所述语音唤醒训练数据,对所述第一模型进行语音唤醒训练,得到模型损失函数收敛时的第一模型;
将模型损失函数收敛时的第一模型作为所述语音唤醒模型。
2.根据权利要求1所述的方法,其中,所述响应于用户发起的模型配置指令,基于所述基础模型的模型参数,更新所述基础模型中解码模块的配置参数,得到第一模型,包括:
响应于用户发起的模型配置指令,基于所述基础模型的模型参数,更新所述基础模型中所述解码模块的全连接子模块和归一化子模块的配置参数,得到所述第一模型。
3.根据权利要求1或2所述的方法,其中,所述响应于用户发起的模型配置指令,基于所述基础模型的模型参数,更新所述基础模型中解码模块的配置参数,得到第一模型,包括:
响应于用户发起的模型配置指令,基于所述基础模型的模型参数,将所述基础模型中所述解码模块的全连接子模块和归一化子模块的输出维度更新为二维。
4.根据权利要求1至3中任一项所述的方法,其中,所述模型损失函数包括连结时序分类ctc损失函数和交叉熵误差ce损失函数;
所述ctc损失函数,用于训练所述基础模型或所述第一模型的编码模块;
所述ce损失函数,用于训练所述基础模型或所述第一模型的解码模块。
5.根据权利要求1至3中任一项所述的方法,其中,所述根据所述语音识别训练数据对基础模型进行语音识别训练,得到模型损失函数收敛时的基础模型的模型参数,包括:
根据所述语音识别训练数据对所述基础模型的编码模块和解码模块进行联合训练;在所述编码模块对应的ctc损失函数和所述解码模块对应的ce损失函数均收敛时,得到所述基础模型的模型参数。
6.根据权利要求1至3中任一项所述的方法,其中,所述根据所述语音唤醒训练数据,对所述第一模型进行语音唤醒训练,得到模型损失函数收敛时的第一模型,包括:
根据所述语音唤醒训练数据,对所述第一模型的编码模块和解码模块进行联合训练;在所述编码模块对应的ctc损失函数和所述解码模块对应的ce损失函数均收敛时,得到所述第一模型。
7.根据权利要求1至6中任一项所述的方法,其中,所述获取语音识别训练数据,包括:
接收用户输入的第一音频数据,所述第一音频数据为包含自定义唤醒词的音频数据;
对所述第一音频数据进行特征提取,得到所述第一音频数据对应的滤波器组FBank特征;
获取所述第一音频数据对应的语义标签序列以及音节序列;
将所述第一音频数据对应的FBank特征、语义标签序列以及音节序列,作为所述语音识别训练的一组训练数据。
8.根据权利要求1至6中任一项所述的方法,其中,所述获取语音唤醒训练数据,包括:
将用户输入的第一音频数据对应的FBank特征、语义标签序列以及唤醒标签,作为所述语音唤醒训练的一组正例数据;所述第一音频数据为包含自定义唤醒词的音频数据;
接收用户输入的第二音频数据,对所述第二音频数据进行特征提取,得到所述第二音频数据对应的FBank特征;所述第二音频数据为不包含所述自定义唤醒词的音频数据;
将所述第二音频数据对应的FBank特征,随机生成的语义标签序列以及不唤醒标签,作为所述语音唤醒训练的一组负例数据;所述随机生成的语义标签序列与所述第二音频数据对应的语义标签序列不同。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210356735.2/1.html,转载请声明来源钻瓜专利网。