[发明专利]一种声纹识别方法及装置有效
申请号: | 201611158891.9 | 申请日: | 2016-12-15 |
公开(公告)号: | CN107610707B | 公开(公告)日: | 2018-08-31 |
发明(设计)人: | 王健宗;郭卉;肖京 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G10L17/02 | 分类号: | G10L17/02;G10L17/04;G10L17/18;G10L17/20;G10L25/24;G10L25/30 |
代理公司: | 深圳中一专利商标事务所 44237 | 代理人: | 阳开亮 |
地址: | 518000 广东省深*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 声纹 识别 方法 装置 | ||
1.一种声纹识别方法,其特征在于,包括:
分别对输入的K条语音进行预处理,所述语音包括训练语音及待识别语音,以获取所述K条语音中每条语音的有效语音;
提取所述每条训练语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特征矩阵;
构建长短时递归神经网络模型,并将所述第一特征矩阵输入所述神经网络模型,以获取所述神经网络模型的输出参数;
利用所述神经网络模型的输出参数及所述每条训练语音对应的说话人特征,分别训练得出N条训练语音的N个特征提取矩阵,所述每个特征提取矩阵对应一个所述训练语音的说话人模型;
提取所述待识别语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述待识别语音的分帧数的第二特征矩阵;
在N个说话人模型中,根据预设的相似性度量算法,选取出与所述第二特征矩阵相匹配的说话人模型,所述选取出的说话人模型对应的说话人输出为所述待识别语音的声纹识别结果;
其中,所述K和N为大于零的整数,且K大于N。
2.如权利要求1所述的方法,其特征在于,所述分别对输入的K条语音进行预处理,所述语音包括训练语音及待识别语音,以获取所述K条语音中每条语音的有效语音,包括:
分别对输入的K条语音进行预加重处理,以提升所述每条语音中的高频信号频段;
采用分帧加窗算法,分别将所述预加重处理后的每条语音转化为短时平稳信号;
基于端点检测算法区分所述短时平稳信号中的噪声与语音,并将所述短时平稳信号中的语音输出为所述每条语音的有效语音。
3.如权利要求2所述的方法,其特征在于,所述提取所述每条训练语音中有效语音的梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特征矩阵包括:
通过快速傅利叶变换分析所述每条训练语音中的有效语音,获取所述有效语音的功率谱;
采用梅尔尺度的滤波器组对所述功率谱进行滤波处理,所述滤波器组包含M个三角滤波器,并获取所述每个三角滤波器输出的对数能量,所述M为大于零的整数;
将所述对数能量进行离散余弦变换后,输出所述有效语音的梅尔频率倒谱系数声学特征;
根据所述梅尔频率倒谱系数声学特征,输出包含所述梅尔频率倒谱系数的维度及所述每条训练语音的分帧数的第一特征矩阵。
4.如权利要求1所述的方法,其特征在于,所述构建长短时递归神经网络模型,并将所述第一特征矩阵输入所述神经网络模型,以获取所述神经网络模型的输出参数包括:
初始化一个长短时递归神经网络模型,所述神经网络模型包含输入层、含有长短期记忆单元的递归层以及输出层;
将所述第一特征矩阵输入所述神经网络模型;
采用Softmax分类器对所述第一特征矩阵中的帧特征向量进行分类,并根据分类结果进行状态聚类,得到多类帧特征向量;
分别计算所述各类帧特征向量的后验概率,所述各类帧特征向量的后验概率为所述神经网络模型的输出参数。
5.如权利要求1所述的方法,其特征在于,所述利用所述神经网络模型的输出参数及所述每条训练语音对应的说话人特征,分别训练得出N条训练语音的N个特征提取矩阵包括:
获取所述神经网络模型的训练参数,所述训练参数为所述输出参数的混合权重、均值及方差;
根据所述训练参数及所述训练语音对应的说话人特征,利用前向-后向算法计算所述每条训练语音对应说话人的特征向量;
将所述神经网络模型的训练参数及所述每条训练语音对应说话人的特征向量迭代至收敛,得出所述每条训练语音的特征提取矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611158891.9/1.html,转载请声明来源钻瓜专利网。