[发明专利]一种基于深度学习的说话人识别方法有效
申请号: | 201910340447.6 | 申请日: | 2019-04-25 |
公开(公告)号: | CN110265035B | 公开(公告)日: | 2021-08-06 |
发明(设计)人: | 邓小涛;张华军;王征华;倪杰 | 申请(专利权)人: | 武汉大晟极科技有限公司 |
主分类号: | G10L17/00 | 分类号: | G10L17/00;G10L17/02;G10L17/04;G10L17/20;G10L17/18;G10L25/24;G10L25/21;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 湖北武汉永嘉专利代理有限公司 42102 | 代理人: | 王丹 |
地址: | 430223 湖北省武汉市东湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供一种基于深度学习的说话人识别方法,接收若干说话人的音频数据,构成数据集;数据集中,对说话人进行编号,并确定说话人的编号与音频数据的对应关系;通过阈值法对音频数据进行预处理;音频分块、分帧;每帧进行梅尔频率倒谱系数MFCC的计算;构建神经网络,输入层为帧数与MFCC系数的比值,输出层为说话人的编号;通过神经网络训练支持向量机SVM,对数据集中的数据进行分类训练;输入待识别说话人的音频信号,输出待识别说话人的编号。本发明通过阈值法对音频文件进行预处理,保证了音频文件的统一,可以在更短的时间内获得更高的精度;通过神经网络对训练集进行训练,具有较高的训练速度。 | ||
搜索关键词: | 一种 基于 深度 学习 说话 识别 方法 | ||
【主权项】:
1.一种基于深度学习的说话人识别方法,其特征在于:它包括以下步骤:S1、接收若干说话人的音频数据,构成数据集;数据集中,对说话人进行编号,并确定说话人的编号与音频数据的对应关系;S2、通过阈值法对音频数据进行预处理;S3、音频分块:将预处理后的音频数据剪辑为相同时间长度的音频块;S4、音频分帧:将音频块划分为帧,以第一时间长度的音频为一帧,每帧的帧叠为第二时间长度;第二时间长度小于第一时间长度;S5、每帧进行梅尔频率倒谱系数MFCC的计算,用于描述音频数据的特征;S6、构建神经网络,输入层为帧数与MFCC系数的比值,输出层为说话人的编号;通过神经网络训练支持向量机SVM,对数据集中的数据进行分类训练;S7、输入待识别说话人的音频信号,对待识别说话人的音频信号进行S2至S5的处理,然后通过训练好的神经网络,输出待识别说话人的编号;所述的待识别说话人为数据集中说话人中的任意一位。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大晟极科技有限公司,未经武汉大晟极科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910340447.6/,转载请声明来源钻瓜专利网。