[发明专利]一种基于生成对抗网络的SAR智能参数化自聚焦方法在审
| 申请号: | 202110847336.1 | 申请日: | 2021-07-27 |
| 公开(公告)号: | CN113640795A | 公开(公告)日: | 2021-11-12 |
| 发明(设计)人: | 丁泽刚;卫扬铠;汪子文;李凌豪;曾涛;王岩 | 申请(专利权)人: | 北京理工大学 |
| 主分类号: | G01S13/90 | 分类号: | G01S13/90 |
| 代理公司: | 北京理工大学专利中心 11120 | 代理人: | 田亚琪 |
| 地址: | 100081 *** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 生成 对抗 网络 sar 智能 参数 自聚焦 方法 | ||
本发明公开了一种基于生成对抗网络的SAR智能参数化自聚焦方法,首先,建立延展目标的SAR参数化回波模型和运动误差模型,从中分析得出运动误差与目标参数耦合关系和目标散射特性相位与目标参数的映射关系;然后,通过训练生成对抗网络得出目标散焦聚焦图像对的映射关系,并从中估计出目标参数,最后,将估计的目标参数使用在运动误差与目标参数解耦中,使用常规相位梯度自聚焦算法估计真实运动相位误差,实现目标图像的聚焦;本发明方法提供了一种高智能、高效率的SAR参数化自聚焦解决方案,预期可应用于机载、地基SAR自聚焦等领域。
技术领域
本发明属于机载、地基雷达SAR成像的技术领域,具体涉及一种基于生成对抗网络的SAR智能参数化自聚焦方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)是一种能够不受天气、光照等条件限制,全天时全天候工作的高分辨雷达,它在距离向和方位向分别通过脉冲压缩和合成孔径技术得到目标成像区域二维高分辨图像。由于其全天候、全天时、高分辨的优点,SAR技术成为了各国都十分重视并大力发展的微波成像技术。最初,SAR主要广泛应用在机载和星载,随着科学技术水平的提升和国家发展需求,SAR目前也已经广泛应用在车载、弹载、地基等多种平台。
在SAR成像过程中,运动即是答案又是问题。在SAR成像过程中,通过雷达平台与目标的相对运动信息来得到目标的方位高分辨,但雷达平台和成像目标的非理想运动会使得最终成像图像发生散焦现象,使得图像的可读信息大大降低,严重的影响了图像质量。针对运动误差导致的图像散焦问题,现今有许多优秀的处理自聚焦算法,例如:图像偏移(MapDraft,MD)算法、相位梯度自聚焦(Phase Gradient Autofocus,PGA)算法。该类自聚焦算法通过回波信号本身的信息进行对误差相位的估计以及对该相位进行补偿,其中PGA算法是目前应用最为广泛的自聚焦方法,该算法基于点目标成像模型,通过在成像场景中寻找若干个特显点,并基于这些点的散焦情况进行自聚焦处理,该算法能够处理绝大多数的SAR图像散焦问题。
假如成像场景中出现直线、圆弧等延展目标时,当雷达的成像观测角度不足时,部分点目标的聚焦效果不良或出现干涉相消的现象,于是提出了参数化模型成像的概念,但使用这些模型的成像前提均是雷达进行理想运动,一旦针对该类物体的雷达雷达出现运动误差,与常规散射点不同的是,该类模型的运动相位误差存在散射点滑动导致的调制现象,使用常规PGA自聚焦算法对延展目标模型进行聚焦处理时会将目标散射特性调制相位当作运动相位误差而导致相位误差过补偿,从而造成了运动相位误差估计错误,导致聚焦图像效果不佳,严重影响图像解译。
发明内容
有鉴于此,本发明提供了一种基于生成对抗网络的SAR智能参数化自聚焦方法,能够解决传统SAR自聚焦算法处理延展目标时会由于目标散射特性导致过聚焦现象的问题,大幅提升目标区域含有延展目标的自聚焦效果。
实现本发明的技术方案如下:
一种基于生成对抗网络的SAR智能参数化自聚焦方法,包括以下步骤:
步骤一、建立延展目标参数化回波模型和误差模型,分析得出运动误差与目标参数的耦合关系和目标散射特性相位与目标参数的映射关系;
步骤二、基于SAR观测几何,采用后向投影算法,生成目标的散焦和聚焦图像对;
步骤三、将所述图像对输入生成对抗网络进行训练,获取目标散焦和聚焦图像的映射关系;
步骤四、将实测目标散焦图像输入训练好的生成对抗网络,得到实测目标的聚焦图像,进而估计出目标参数;
步骤五、基于估计出的目标参数、延展目标参数化回波模型和误差模型,将运动误差与目标参数解耦;随后,采用相位梯度自聚焦算法估计并补偿运动误差,获取聚焦良好的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110847336.1/2.html,转载请声明来源钻瓜专利网。





