[发明专利]一种基于交叉阵列的目标三维信息测量方法及系统有效
申请号: | 201910676624.8 | 申请日: | 2019-07-25 |
公开(公告)号: | CN110412588B | 公开(公告)日: | 2021-04-09 |
发明(设计)人: | 闫路;许枫;杨娟;陈田;崔雷雷 | 申请(专利权)人: | 中国科学院声学研究所 |
主分类号: | G01S15/89 | 分类号: | G01S15/89;G01S7/52 |
代理公司: | 北京方安思达知识产权代理有限公司 11472 | 代理人: | 陈琳琳;王宇杨 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 交叉 阵列 目标 三维 信息 测量方法 系统 | ||
1.一种基于交叉阵列的目标三维信息测量方法,该方法基于一个交叉阵列实现,所述交叉阵列包括:接收基阵和发射基阵,所述接收基阵包括水平接收基阵和垂直接收基阵,两者共用一个发射基阵;所述方法包含:
对接收基阵的阵元域回波数据分别进行动态聚焦波束形成,形成水平-距离二维声图和垂直-距离二维声图;
采用信号幅度和目标模型对水平-距离二维声图进行联合检测,得到目标水平向信息;
在垂直-距离二维声图中融合目标水平向信息,采用能量中心和动态门限联合检测,估计出多个疑似目标点的垂直向信息;对多个疑似目标点采用动态门限检测,剔除非疑似点,获得目标点;
结合交叉阵列的俯仰角和结构,估计出海底海面分布,进而估计出目标的深度;
将目标的深度结合目标水平向信息,得到目标三维信息;
所述对接收基阵的阵元域回波数据分别进行动态聚焦波束形成,形成水平-距离二维声图和垂直-距离二维声图;具体为:
所述水平接收基阵阵元个数为Mh,线性均匀阵列,相邻阵元间距为dh,所述垂直接收基阵的阵元个数为Mv,线性均匀阵列,相邻阵元间距为dv,接收到的回波信号分别为xh(t)和xv(t),进行动态聚焦接收预成多波束形成:
其中,和分别为水平接收基阵和垂直接收基阵的加权矢量,θi表示多波束指向角,角度范围为[θmin,θmax],θmin为最小角度,θmax为最大角度,和分别为水平-距离声图数据和垂直-距离声图数据,形成二维图像;
所述采用信号幅度和目标模型对水平-距离二维声图进行联合检测,得到目标水平向信息,具体包括:
计算目标的回波信号强度EL0:
EL0=SL0-TL0(R0)+TS0
其中,SL0为发射阵列的声源级;TS0为其探测目标的目标强度,目标与交叉阵列的距离为R0,TL0(R0)为与目标点距离有关的传播损失;
根据水平接收基阵的接收灵敏度,计算出目标回波信号电压V0:
V0=10^((Sh+20logPa)/20)
其中,Sh表示水平接收基阵的接收灵敏度,Pa为接收信号EL0对应的声压;
根据接收电路系统增益放大和波束形成的增益,估计得到波束域目标出的信号幅度A0;
将信号幅度A0作为检测门限,结合目标模型像素点数N0,实现水平阵目标的动态门限检测,从而估计得到目标的水平向距离位置和水平角度信息
所述在垂直-距离二维声图中融合目标水平向信息,采用能量中心和动态门限联合检测,估计出多个疑似目标点的垂直向信息;对多个疑似目标点采用动态门限检测,剔除非疑似点,获得目标点;具体包括:
在区域内,r0为根据试验应用场景设定的距离,根据接收信号类型和发射脉宽,计算得出距离向时间分辨率为τ;
选定能量估计区间Td,Td=4τ,利用能量估计区间Td将距离区间划分为K个能量区间,每个区间的能量表示为
其中,tj为第j个能量区间的起始时刻,为垂直向第i个波束第j个能量区间的幅度值;
对K个区间的能量值进行排序,得到能量最大值Emax对应的第k个能量集中区间为[tk,tk+Td];
对[tk,tk+Td]区间内的数据幅值求取平均值进行动态门限检测,剔除能量区间中的非目标点,最终采用幅度时间加权方法,估计得到多个波束目标散射回波的到达时间到达时刻ta_m:
其中,Nb是水平接收波束个数;由此估计出每个波束上的疑似目标的时刻值ta_m以及对应幅度值;
对多个波束的疑似目标点进行动态门限检测,将大于此门限的波束数和小于此门限的波束数的目标作为非疑似目标点,剔除非疑似目标点后得到Ns个疑似目标,估计出Ns个疑似目标回波的到达时刻值和对应的波束角度,在垂直-距离声图中画出目标点曲线。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院声学研究所,未经中国科学院声学研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910676624.8/1.html,转载请声明来源钻瓜专利网。