[发明专利]一种基于模糊最近邻算法的语音情感识别方法有效
申请号: | 201710577204.5 | 申请日: | 2017-07-14 |
公开(公告)号: | CN107492384B | 公开(公告)日: | 2020-12-25 |
发明(设计)人: | 袁家政;刘宏哲;龚灵杰 | 申请(专利权)人: | 北京联合大学 |
主分类号: | G10L25/63 | 分类号: | G10L25/63;G10L25/33;G10L25/03 |
代理公司: | 北京驰纳智财知识产权代理事务所(普通合伙) 11367 | 代理人: | 谢亮 |
地址: | 100101 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模糊 近邻 算法 语音 情感 识别 方法 | ||
本发明提供一种基于模糊最近邻算法的语音情感识别方法,包括以下步骤:按照定义提取每一个样本的短时能量特征、基音频率特征、过零率特征和短时平均幅值特征,组成四维的特征向量;计算每一种情感特征对于区分不同情感的贡献度;以步骤1所述的方法提取测试样本的四个相同的特征,组成四维的特征向量;根据欧式距离和步骤2中所计算出来的贡献度加权,计算训练样本的特征向量和测试样本的特征向量间的距离;对距离排序,并确定k个最近邻的样本的情感,根据个数多少分类;对于步骤5中的k个情感样本,用FKNN方法进行再分类。本发明能够提高了语音情感识别的准确性。
技术领域
本发明涉及语音信号处理和模式识别的技术领域,特别是一种基于模糊最近邻算法的语音情感识别方法。
背景技术
随着信息技术的不断发展,社会发展对情感计算提出了更高的要求。例如在人机交互方面,一个拥有情感能力的计算机能够对人类情感进行获取、分类、识别和响应,进而帮助使用者获得高效而又亲切的感觉,并能有效减轻人们使用电脑的挫败感,甚至能帮助人们理解自己和他人的情感世界。例如采用此类技术探测驾驶司机的精力是否集中、感受到的压力水平等,并做出相应反应。此外,情感计算还能应用在机器人、智能玩具、游戏、电子商务等相关产业中,以构筑更加拟人化的风格和更加逼真的场景。情感也反映了人类的心理健康情况,情感计算的应用可以有效地帮助人们避免不良情绪,保持乐观健康的心理。传统的knn算法局限性很大,在获取k值时只能获取奇数,受到很大的限制。
公开号为CN106469560A的专利文件公开了一种基于无监督域适应的语音情感识别方法,提出的模型包括:特征提取,情感标签预测,域标签预测。特征提取:首先将原始输入数据分解成两块特征,情感判断特征和情感无关特征,然后将情感判断特征记性层次非线性转换得到高层情感特征。将高层情感特征用于情感标签和域标签的预测。利用梯度湘江发对整个模型的参数进行更新,得到特征提取层的各层权重,然后,进行特征提取,源域有标签样本通过训练好的特征提取层到高级情感特征。最后,进行分类器SVM的训练,将源域有标签样本的高层情感特征和相对应的情感标签输入到SVM中训练,训练好的SVM可用于目标域测试样本的分类。该方法虽然能够解决训练样本和测试样本数据分布不同的问题,但是运算复杂,极易出现错误,而且对于高兴和愤怒这两种情感的区分并不是很到位。
发明内容
为了解决上述的技术问题,本发明提出了一种基于深度学习的手势识别方法,分为训练阶段和识别阶段,在训练阶段,首先对训练样本的情感语音进行预处理操作,主要是对语音进行预加重、加窗、分帧等;然后提取语音情感特征参数,短时平均能量、基音频率、过零率和短时平均幅度。在识别阶段,测试语音通过预处理、特征提取和特征分析后,输入到FKNN分类器中进行识别判决。
本发明提供一种基于模糊最近邻算法的语音情感识别方法,包括以下步骤:
步骤1:按照定义提取每一个样本的短时能量特征、基音频率特征、过零率特征和短时平均幅值特征,组成四维的特征向量;
步骤2:计算每一种情感特征对于区分不同情感的贡献度;
步骤3:以步骤1所述的方法提取测试样本的四个相同的特征,组成四维的特征向量;
步骤4:根据欧式距离和步骤2中所计算出来的贡献度加权,计算训练样本的特征向量和测试样本的特征向量间的距离;
步骤5:对距离排序,并确定k个最近邻的样本的情感,根据个数多少分类;
步骤6:对于步骤5中的k个情感样本,用FKNN方法进行再分类。
优选的是,所述短时能量特征的定义如下:
其中,En表示在信号的第n个点开始加窗函数时的短时能量;x(n)是语音信号;ω(n)是窗函数;N为窗长。
在上述任一方案中优选的是,所述过零特征的定义如下:其中,sgn[.]是符号函数,即
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京联合大学,未经北京联合大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710577204.5/2.html,转载请声明来源钻瓜专利网。