[发明专利]基于浅海多途到达角和到达时延的近距离声源联合定位方法有效
申请号: | 201611163766.7 | 申请日: | 2016-12-16 |
公开(公告)号: | CN106646373B | 公开(公告)日: | 2018-08-14 |
发明(设计)人: | 杨坤德;郭晓乐;段睿 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G01S5/18 | 分类号: | G01S5/18 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 刘新琼 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多途 声源 近距离 浅海 时延信息 时延 自相关函数 计算信号 模糊函数 准确定位 高分辨 角信息 子空间 加权 联合 | ||
本发明涉及一种基于浅海多途到达角和多途到达时延的近距离声源联合定位方法,该发明方法利用加权子空间高分辨方法估计声源的多途到达角信息,通过计算信号的自相关函数估计声源的多途到达时延信息;最后,该发明方法将多途到达角和多途到达时延信息同时约束在定位的模糊函数中,从而能够对浅海近距离声源进行准确定位。
技术领域
本发明涉及一种近距离浅海声源定位方法,特别是涉及一种利用浅海近距离声源多途到达角和到达时延的联合定位方法,适用于水平变化比较平稳的浅海海域,属于水声学和水声信号处理领域。
背景技术
本发明主要用于浅海近距离声源定位。浅海环境中,由于水声环境非常复杂,声源定位一直是水声领域中的一个关键问题。针对浅海近距离声源的多途到达角信息反映了目标声源的距离信息,而多途到达时延信息则反映了目标声源的深度信息。本文通过利用加权子空间高分辨方法估计信号的多途到达角信息,并且通过信号的自相关函数来估计多途到达时延;最后本文定位时通过将多途到达角和多途到达时延信息同时约束在定位的模糊函数中,能够得到深度和距离估计值都非常准确的定位效果。
目前主要的浅海定位方法有匹配场处理、基于波导不变量处理等方法。匹配场处理方法可以参见《An overview of matched field methods in ocean acoustics》,该文1993年发表于《IEEE Journal of Oceanic Engineering》第18期,起始页码为401。匹配场处理通过将声场传播模型计算的拷贝声场与实际接收的声场进行相关处理来实现水声目标的定位问题,它比较依赖于海洋环境参数和声场计算模型,计算量很大,且实际应用中往往会存在各种环境失配所带来的性能下降甚至是失效问题。波导不变量方法可以参见《水下目标被动测距的一种新方法:利用波导不变量提取目标距离信息》,该文2015年发表于《声学学报》第40期,起始页码为138。波导不变量方法利用的是浅海波导中声场在距离和频率二维平面上具有稳健性的干涉结构特征来进行处理,虽然波导不变量对于目标的测距有一定的效果,但是波导不变量对声源深度参数不敏感,不能有效地估计出声源的深度。
通过研究得出只利用接收信号的多途到达角信息进行声源定位时,由于多途到达角信息只对声源的距离信息比较敏感,所以定位时会在声源深度方向上出现模糊;但是只利用接收信号的多途到达时延信息进行声源定位时,由于多途到达时延信息只对声源的深度信息比较敏感,所以定位时会在声源距离方向上出现模糊。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于浅海多途到达角和到达时延的近距离声源联合定位方法。
技术方案
为了充分利用浅海近距离声源的多途到达角和多途到达时延信息,实现对浅海近距离声源的准确定位。由于浅海多途到达角信息反映了目标声源的距离信息,而浅海多途到达时延信息则反应了目标声源的深度信息;该发明方法利用加权子空间高分辨方法估计声源的多途到达角信息,通过计算信号的自相关函数估计声源的多途到达时延信息;最后,该发明方法将多途到达角和多途到达时延信息同时约束在定位的模糊函数中,从而能够对浅海近距离声源进行准确定位。
一种基于浅海多途到达角和到达时延的近距离声源联合定位方法,其特征在于步骤如下:
步骤1:浅海近距离声源的多途到达角定位:
步骤1a:在浅海波导中,声源在远场条件下,K个多途到达角能够表示为K个平面波,利用N阵元的均匀垂直线列阵进行接收,则均匀垂直线列阵的接收信号为:
x(t)=A(θ)·s(t)+n(t)(1)
式中A(θ)是一个N×K维的阵列流形矩阵,s(t)是一个K×1维的信号向量,n(t)是N×1维的噪声向量,假设为均值为0,方差为σ2的稳态高斯白噪声;对接收信号的协方差矩阵Rx进行特征分解可得:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611163766.7/2.html,转载请声明来源钻瓜专利网。