[发明专利]混合语音信号的分离方法、装置、存储介质及电子装置有效
| 申请号: | 201910736585.6 | 申请日: | 2019-08-09 |
| 公开(公告)号: | CN110491409B | 公开(公告)日: | 2021-09-24 |
| 发明(设计)人: | 顾容之;陈联武;张世雄;徐勇;于蒙;苏丹;俞栋 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
| 主分类号: | G10L21/0272 | 分类号: | G10L21/0272;G10L21/0308 |
| 代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 周婷婷 |
| 地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 混合 语音 信号 分离 方法 装置 存储 介质 电子 | ||
1.一种混合语音信号的分离方法,其特征在于,包括:
获取语音采集装置采集到的混合语音信号,其中,所述混合语音信号包括至少两个目标对象发出的语音;
获取所述混合语音信号的频域特征形成的第一频域矩阵和所述混合语音信号的空域特征形成的第一空域矩阵;
从所述至少两个目标对象中每两个所述目标对象与所述语音采集装置之间的夹角中确定角度最小的目标夹角;
使用与所述目标夹角对应的权重系数对所述第一空域矩阵进行加权,得到第二空域矩阵,其中,0≤所述权重系数≤1;
将所述第一频域矩阵和所述第二空域矩阵输入到目标神经网络模型,得到所述目标神经网络模型输出的从所述混合语音信号中分离出的与所述至少两个目标对象一一对应的多路语音信号,其中,所述目标神经网络模型是使用多组数据对原始神经网络模型训练出来的,所述多组数据中的每组数据均包括:至少两个目标对象发出的语音的频域特征矩阵和加权后的空域特征矩阵;
所述从所述至少两个目标对象中每两个所述目标对象与所述语音采集装置之间的夹角中确定角度最小的目标夹角,包括:
确定所述第一空域矩阵中所表示的空域特征的目标数量;
在所述语音采集装置中选择所述目标数量的麦克风对,确定每个麦克风对中的第一麦克风与第二麦克风之间的第二中心位置,确定第二中心位置与第一位置之间的第三连线与所述第二中心位置与第二位置之间的第四连线构成的第二夹角,其中,所述第一位置为所述每两个所述目标对象中的第一目标对象所在的位置,所述第二位置为所述每两个所述目标对象中的第二目标对象所在的位置,所述每两个所述目标对象对应一个所述第二夹角;
从所述至少两个目标对象中每两个所述目标对象对应的所述第二夹角中确定角度最小的夹角作为第二最小夹角,所述每个麦克风对对应一个所述第二最小夹角,所述目标夹角包括每个麦克风对对应的所述第二最小夹角。
2.根据权利要求1所述的方法,其特征在于,从所述至少两个目标对象中每两个所述目标对象与所述语音采集装置之间的夹角中确定角度最小的目标夹角,包括:
确定第一中心位置与第一位置之间的第一连线与所述第一中心位置与第二位置之间的第二连线构成的第一夹角,其中,所述第一中心位置为所述语音采集装置的中心位置,所述第一位置为所述每两个所述目标对象中的第一目标对象所在的位置,所述第二位置为所述每两个所述目标对象中的第二目标对象所在的位置,所述每两个所述目标对象对应一个所述第一夹角;
从所述至少两个目标对象中每两个所述目标对象对应的所述第一夹角中确定角度最小的夹角作为第一最小夹角,其中,所述目标夹角包括所述第一最小夹角。
3.根据权利要求2所述的方法,其特征在于,在使用与所述目标夹角对应的权重系数对所述第一空域矩阵进行加权之前,所述方法包括:
通过如下公式确定与所述目标夹角对应的第一权重系数:
其中,θ是所述目标夹角,θ取值范围是0到180度,w和b是初始化确定的网络参数,att1(θ)表示与所述目标夹角对应的所述权重系数。
4.根据权利要求3所述的方法,其特征在于,使用与所述目标夹角对应的权重系数对所述第一空域矩阵进行加权,得到第二空域矩阵,包括:
使用所述第一权重系数对所述第一空域矩阵进行加权,得到所述第二空域矩阵。
5.根据权利要求1所述的方法,其特征在于,在使用与所述目标夹角对应的权重系数对所述第一空域矩阵进行加权之前,所述方法包括:
通过如下公式确定与每个麦克风对的所述第二最小夹角对应的第二权重系数:
其中,θk是与第k个麦克风对对应的所述第二最小夹角,θk取值范围是0到180度,wk和bk是初始化确定的网络参数,att2(θk)表示与第k个麦克风对的第二最小夹角对应的第二权重系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910736585.6/1.html,转载请声明来源钻瓜专利网。





