[发明专利]一种两阶段稀疏分解的说话人识别方法与装置在审
申请号: | 201410231798.0 | 申请日: | 2014-05-29 |
公开(公告)号: | CN105139855A | 公开(公告)日: | 2015-12-09 |
发明(设计)人: | 何勇军;孙广路;付茂国 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G10L17/00 | 分类号: | G10L17/00;G10L17/04 |
代理公司: | 北京路浩知识产权代理有限公司 11002 | 代理人: | 李迪 |
地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 阶段 稀疏 分解 说话 识别 方法 装置 | ||
技术领域
本发明涉及语音信号处理中的说话人识别领域,尤其涉及一种两阶段稀疏分解的说话人识别方法与装置。
背景技术
目前,说话人识别在身份鉴别,网络监控,电话监听以及信息安全等领域有着广泛应用。经过几十年的广泛研究,典型的识别系统如高斯混合-通用背景模型(GMM-UBM)方法,高斯混合模型-支持向量机方法(GMM-SVM)和联合因素分析等方法,在理想的条件下取得了满意的效果。但是在噪声环境下,其性能将急剧下降,这限制了这些技术的广泛应用。
研究者们提出了两类方法以增强说话人识别的噪声鲁棒性。第一类方法是提取对噪声鲁棒的特征,例如线性预测系数(LPCC),梅尔倒谱系数(MFCC)和感知线性预测系数(PLP)等。这些方法仅仅有限的提高,因为没有特征具有只表示语音而不表示噪声的选择能力。第二类方法是在有噪声语音中采用增强的方法去除噪声,例如谱相减和维纳滤波,然后从增强的语音中提取特征。不幸的是,多数噪声是非稳定的,甚至有些噪声像语音,很难对其建模并估计。结果,语音增强方法不可避免会引起更大的畸变,这影响了目前的说话人识别方法,因此,人们希望能有新的技术来解决这个难题。
在过去数年中,稀疏编码被广泛的研究,为噪声环境下的说话人识别提供了可能的解决方法。该技术用一组原子(基元信号)来表示信号,原子的集合叫被称为字典。通过稀疏编码,用少量原子的线性组合表示信号的全部或大部分信息。最近,一个叫做形态成分分析(MCA)的稀疏编码方法被成功用于说话人识别。基于这项技术,每个说话人都准备一个字典,所有的说话人字典被拼接成一个大字典。在识别中,测试的语音通过大字典被稀疏地表示。理论上,一个说话人说的话仅仅能被这个说话人的字典表示,因此,稀疏表示可以直接用于分类。
几乎所有说话人识别的方法都用了MCA的框架,这些方法首先把训练语音转变为GMM均值超级向量或者总变异的向量,然后把这些向量组成一个大字典,用这个大字典进行稀疏分解和分类。据报道,这些方法比传统的GMM-UBM和GMM-SVM方法有更好的性能。但是这些方法仍然没有考虑对噪声进行补偿,这降低了这些方法在噪声情况下的识别率。
发明内容
本发明所要解决的技术问题是,针对现有技术的不足,如何提供一种方法考虑对说话人识别中的噪声进行补偿,提高说话人语音在噪声情况下的识别率的关键问题。
为此目的,本发明提出了一种两阶段稀疏分解的说话人识别方法,包括具体以下步骤:
S1:对输入的语音的离散时间信号进行分帧与加窗处理;
S2:对每一帧信号作离散傅立叶变换并求幅度值,把幅度谱作为特征进行提取;
S3:构建一个大字典,其中,所述大字典包括通用的背景字典、不同说话人的特征字典和噪声字典;
S4:进行第一阶段稀疏分解来获得待识别语音在所述大字典上的稀疏表示,并对输入语音作粗分类获得部分目标说话人的字典;
S5:对所述部分目标说话人字典进行拼接,进行第二阶段稀疏分解,利用稀疏表示确认最终识别说话人。
具体地,所述加窗处理为汉明窗、汉宁窗或矩形窗。
为此目的,本发明还提出了一种两阶段稀疏分解的说话人识别装置,包括:
分帧与加窗模块,用于对输入的语音的离散时间信号进行分帧与加窗处理;
特征提取模块,用于对每一帧信号作离散傅立叶变换并求幅度值,把幅度谱作为特征进行提取;
构建字典模块,用于构建一个大字典,其中,所述大字典包括通用的背景字典、不同说话人的特征字典和噪声字典;
第一阶段稀疏分解模块,用于进行第一阶段稀疏分解来获得待识别语音在所述大字典上的稀疏表示,并对输入语音作粗分类获得部分目标说话人的字典;
第二阶段稀疏分解模块,用于对所述部分目标说话人字典进行拼接,进行第二阶段稀疏分解,利用稀疏表示确认最终识别说话人。
具体地,所述加窗处理为汉明窗、汉宁窗或矩形窗。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410231798.0/2.html,转载请声明来源钻瓜专利网。