[发明专利]歌唱者识别方法和装置在审
申请号: | 201811148198.2 | 申请日: | 2018-09-29 |
公开(公告)号: | CN109308901A | 公开(公告)日: | 2019-02-05 |
发明(设计)人: | 陈建哲;钟思思;贺学焱 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
主分类号: | G10L17/04 | 分类号: | G10L17/04 |
代理公司: | 北京英赛嘉华知识产权代理有限责任公司 11204 | 代理人: | 王达佐;马晓亚 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 音乐数据 方法和装置 准确度 分离模型 申请 | ||
1.一种歌唱者识别方法,包括:
采用已训练的人声分离模型对待识别的音乐数据进行处理,得到待识别的音乐数据中的人声数据;
将待识别的音乐数据中的人声数据输入已训练的歌唱者识别模型,得到所述待识别的音乐数据的歌唱者识别结果。
2.根据权利要求1所述的方法,其中,所述方法还包括:
基于第一样本音乐数据训练得出所述已训练的人声分离模型。
3.根据权利要求2所述的方法,其中,所述基于第一样本音乐数据训练得出所述已训练的人声分离模型,包括:
提取所述第一样本音乐数据的频谱特征,并基于所述第一样本音乐数据的频谱特征从第一样本音乐数据中分离出样本人声数据;
基于高斯混合模型构建待训练的人声分离模型,将所述样本人声数据作为所述待训练的人声分离模型对第一样本音乐数据进行人声分离得到第一样本音乐数据中的人声数据的期望结果,训练得出所述已训练的人声分离模型。
4.根据权利要求2所述的方法,其中,所述基于第一样本音乐数据训练得出所述已训练的人声分离模型,包括:
提取所述第一样本音乐数据的频谱特征,基于第一样本音乐数据的频率特征将从样本音乐数据分解为样本人声数据和样本伴奏数据;
基于高斯混合模型构建待训练的人声分离模型,将所述样本人声数据作为所述待训练的人声分离模型对第一样本音乐数据进行人声分离得到第一样本音乐数据中的人声数据的期望结果,并且将所述样本伴奏数据作为所述待训练的人声分离模型对第一样本音乐数据进行人声分离得到第一样本音乐数据中的伴奏数据的期望结果,训练得出所述已训练的人声分离模型。
5.根据权利要求1-4任一项所述的方法,其中,所述方法还包括:
基于具有对应的歌唱者标注信息的第二样本音乐数据训练得出所述已训练的歌唱者识别模型,包括:
将所述第二样本音乐数据输入所述已训练的人声分离模型,得到第二样本音乐数据中的人声数据;
基于高斯混合模型构建待训练的歌唱者识别模型,利用所述第二样本音乐数据中的人声数据,将所述第二样本音乐数据的歌唱者标注信息作为待训练的歌唱者识别模型对第二样本音乐数据中的人声数据的歌唱者识别的期望结果,对所述待训练的歌唱者模型进行训练,得到所述已训练的歌唱者识别模型。
6.一种歌唱者识别装置,包括:
分离单元,被配置为采用已训练的人声分离模型对待识别的音乐数据进行处理,得到待识别的音乐数据中的人声数据;
识别单元,被配置为将待识别的音乐数据中的人声数据输入已训练的歌唱者识别模型,得到所述待识别的音乐数据的歌唱者识别结果。
7.根据权利要求6所述的装置,其中,所述装置还包括:
第一训练单元,被配置为基于第一样本音乐数据训练得出所述已训练的人声分离模型。
8.根据权利要求7所述的装置,其中,所述第一训练单元进一步被配置为基于第一样本音乐数据,按照如下方式训练得出所述已训练的人声分离模型:
提取所述第一样本音乐数据的频谱特征,并基于所述第一样本音乐数据的频谱特征从第一样本音乐数据中分离出样本人声数据;
基于高斯混合模型构建待训练的人声分离模型,将所述样本人声数据作为所述待训练的人声分离模型对第一样本音乐数据进行人声分离得到第一样本音乐数据中的人声数据的期望结果,训练得出所述已训练的人声分离模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811148198.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:耳机装置、语音处理系统和语音处理方法
- 下一篇:一种钢琴调音系统及方法