[发明专利]一种基于深度神经网络的自动语音叠音检测方法有效
| 申请号: | 201510696366.1 | 申请日: | 2015-10-23 |
| 公开(公告)号: | CN106611604B | 公开(公告)日: | 2020-04-14 |
| 发明(设计)人: | 颜永红;陈梦喆;潘接林;刘建 | 申请(专利权)人: | 中国科学院声学研究所;北京中科信利技术有限公司 |
| 主分类号: | G10L25/78 | 分类号: | G10L25/78;G10L25/30 |
| 代理公司: | 北京方安思达知识产权代理有限公司 11472 | 代理人: | 王宇杨;李彪 |
| 地址: | 100190 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 神经网络 自动 语音 检测 方法 | ||
本发明涉及一种基于深度神经网络的自动语音叠音检测方法,包括:训练用于叠音检测的深度神经网络模型;其中,该深度神经网络模型的输入层为语音的特征信息,输出层为针对叠音语音、单人语音、非语音三类状态的概率输出值;采用深度神经网络模型对自动语音做叠音检测。
技术领域
本发明涉及语音检测方法,特别涉及一种基于深度神经网络的自动语音叠音检测方法。
背景技术
自动语音叠音检测,就是通过自动的方法检测出语音中哪些位置发生了多人同时说话的现象,并将这些位置标注出来。叠音现象的出现会对语音信号处理技术的效果产生影响。在说话人分类领域中,叠音现象是产生说话人分类错误的主要原因之一。传统的说话人分类只能对切分后的语音段判断是否为某个说话人,当叠音段出现时,显然判断为任何一个说话人都是不正确的;在语音识别领域中,叠音区域由于存在他人语音交叠的情况,对需要识别的语音产生了干扰,相应的识别性能将会受到影响,这种影响甚至还会蔓延到叠音前后的区域,使得错误率明显上升。这些情况下需要用自动叠音检测判断出哪些段落是叠音数据,然后针对叠音再进行特殊处理。
对于自动语音叠音检测来说,性能的优化主要从两方面进行:特征层面和建模层面。在特征层面,从叠音的声学特性入手,通过加入有针对性的特征类型用于区分,例如在叠音现象明显的多人会议说话人分类任务中,分别通过加入空间信息和加入高层信息的方法优化输入特征的类型,从而提高叠音检测的性能。在建模层面,有学者提出了基于HMM语音端点检测框架,通过对单说话人语音、串扰、叠音和静音四类语音进行HMM建模,从而判断出哪些地方出现了叠音。在实际应用中,自动语音叠音检测常常用于客服质检系统中,自动发现哪些地方有出现客服打断用户说话或者抢话的现象,从而对客服质量进行评估。这种技术可辅助甚至代替客服质检人员处理用户投诉、监督客服质量,由于极大程度上节省了人力开销,逐渐受到市场的青睐。
近年来,深度神经网络(Deep Neural Network,DNN)技术在大词汇连续语音系统声学建模领域中得到了成功应用,相比传统的HMM混合高斯模型,识别性能得到明显改善。由于DNN是一种深层次的统计模型,相比传统浅层的模型而言,其学习能力更强。目前DNN在语音处理技术的相关研究领域应用都非常广泛语音识别、说话人识别、语音增强,然而在自动语音叠音检测领域上的相关研究工作还非常缺乏。
发明内容
本发明的目的在于克服现有技术中尚缺乏深度神经网络在自动语音叠音检测领域上的应用的缺陷,从而提供一种基于深度神经网络的自动语音叠音检测方法。
为了实现上述目的,本发明提供了一种基于深度神经网络的自动语音叠音检测方法,包括:
步骤1)、训练用于叠音检测的深度神经网络模型;其中,该深度神经网络模型的输入层为语音的特征信息,输出层为针对叠音语音、单人语音、非语音三类状态的概率输出值;
步骤2)、采用步骤1)训练得到的深度神经网络模型对自动语音做叠音检测。
上述技术方案中,还包括人工合成模拟叠音数据的步骤;该步骤所生成的模拟叠音数据作为训练数据的一部分,用于深度神经网络模型的训练。
上述技术方案中,所述人工合成模拟叠音数据的步骤具体包括:
步骤a)、对带标注的标准库的对话数据进行强制对齐,得到语音或非语音的片段信息标注;
步骤b)、对所有训练数据进行加噪处理;
步骤c)、根据片段信息标注,对所有语音片段进行随机两两选择,进行时域线性叠加。
上述技术方案中,所述步骤1)进一步包括:
步骤1-1)、采集一定量的语音数据作为训练数据,设立对应的帧级别状态目标值;其中,所述帧级别状态目标值包括:叠音语音、单人语音、非语音;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所;北京中科信利技术有限公司,未经中国科学院声学研究所;北京中科信利技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510696366.1/2.html,转载请声明来源钻瓜专利网。





