[发明专利]一种声源定位方法及装置在审
申请号: | 201611154066.1 | 申请日: | 2016-12-14 |
公开(公告)号: | CN108231085A | 公开(公告)日: | 2018-06-29 |
发明(设计)人: | 何赛娟;陈扬坤;陈展 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
主分类号: | G10L21/0216 | 分类号: | G10L21/0216;G10L21/0224;G10L25/27;G01S5/20 |
代理公司: | 北京柏杉松知识产权代理事务所(普通合伙) 11413 | 代理人: | 项京;马敬 |
地址: | 310051 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标音频信号 目标方位角 麦克风 时延 向量 目标机器 声源定位 方位角 音频帧 采集 分帧 声源 样本 机器学习模型 音频信号样本 麦克风阵列 计算目标 目标音频 时延计算 输出内容 输入内容 应用场景 学习 | ||
1.一种声源定位方法,其特征在于,所述方法包括:
获得麦克风阵列中各个麦克风采集的目标音频信号;
对所述各个麦克风采集的目标音频信号进行分帧处理,并根据分帧结果,确定所述各个麦克风所对应的目标音频帧;
计算所述目标音频帧所对应的目标时延向量,其中,所述目标时延向量为:基于各个麦克风接收相应目标音频帧的时间差所形成的向量;
将所述目标时延向量输入至预先训练完成的目标机器学习模型,得到目标方位角标识值,其中,所述目标机器学习模型为:以音频帧样本对应的时延向量样本作为输入内容,且以音频信号样本对应的方位角标识值作为输出内容所训练得到的机器学习模型,所述音频帧样本为对所述音频信号样本进行分帧处理得到的音频帧;
基于所述目标方位角标识值,得到所述目标音频信号的声源所对应的目标方位角。
2.如权利要求1所述的方法,其特征在于,所述计算所述目标音频帧所对应的目标时延向量的步骤,包括:
对所述目标音频帧进行两两互相关处理,得到所述目标时延向量。
3.如权利要求1所述的方法,其特征在于,所述计算所述目标音频帧所对应的目标时延向量的步骤,包括:
对所述目标音频帧进行上采样处理,并将上采样处理后的音频帧转换为频域信号帧;
对所述频域信号帧进行两两互相关处理,得到所述目标时延向量。
4.如权利要求1所述的方法,其特征在于,所述目标机器学习模型的训练方式包括:
构建初始机器学习模型;
确定用于模型训练的多个预设方位角的方位角标识值;
获得所述麦克风阵列中各个麦克风采集的多个音频信号样本,并对每一个音频信号样本进行分帧处理,得到多个音频帧样本,其中,所述音频信号样本为:所对应声源的方位角为所述预设方位角的音频信号;
计算每一个音频帧样本所对应的时延向量样本;
将各时延向量样本输入所述初始机器学习模型,并利用所述预设方位角对应的方位角标识值对相应时延向量样本进行训练;
当各时延向量样本与训练得到的时延向量的均方差值均小于预设值时,完成训练,得到所述目标机器学习模型。
5.如权利要求4所述的方法,其特征在于,所述确定用于模型训练的多个预设方位角的方位角标识值的步骤,包括:
分别将用于训练的每个预设方位角本身作为自身的方位角标识值;
所述基于所述目标方位角标识值,得到所述目标音频信号的声源所对应的目标方位角的步骤,包括:
将所述目标方位角标识值作为所述目标音频信号的声源所对应的目标方位角。
6.如权利要求4所述的方法,其特征在于,所述确定用于模型训练的预设方位角的方位角标识值的步骤,包括:
根据预设的编码规则对用于模型训练的多个预设方位角进行编码,获得各个预设方位角对应的二进制数组;
所述基于所述目标方位角标识值,得到所述目标音频信号的声源所对应的目标方位角的步骤,包括:
按照与所述编码规则对应的解码规则,对所述目标方位角标识值进行解码,得到解码结果;
将所述解码结果作为所述目标音频信号的声源所对应的目标方位角。
7.如权利要求6所述的方法,其特征在于,所述目标机器学习模型的特征匹配公式为:
其中,y(p)为所述目标二进制数组中的第p位二进制数,p=1、2…n,n=[log2N],N为所述预设方位角的数量,k=1、2…N,及b(p)为针对第k个预设方位角预先训练得到的所述第p位二进制数所对应的参数,K(x,y)为所述目标机器学习模型的核函数,为预先训练得到的第k个预设方位角所对应的时延向量,M为所述麦克风阵列中麦克风的数量,Γ=[τ12,…,τ1M,τ23,…,τ2M,…,τ(M-1)M]T为所述目标时延向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611154066.1/1.html,转载请声明来源钻瓜专利网。