[发明专利]基于深度学习的SAR自聚焦方法在审
申请号: | 202110772455.5 | 申请日: | 2021-07-08 |
公开(公告)号: | CN113506233A | 公开(公告)日: | 2021-10-15 |
发明(设计)人: | 丁金闪;黄学军;徐众;朱晟玉 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T5/00;G06N3/04;G06N3/08 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;王喜媛 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 sar 自聚焦 方法 | ||
本发明公开了一种基于深度学习的SAR图像自聚焦方法,主要解决传统方法处理具有空变误差的SAR图像聚焦效果差和耗时的问题。其实现方案为:1)获取多幅粗聚焦SAR图像,将其按照比例随机划分为训练集和测试集;2)构建由八个卷积层和四个反卷积层级联组成的SAR自聚焦网络模型;3)构造SAR自聚焦神经网络的模型损失函数Loss;4)利用训练数据集对SAR图像自聚焦神经网络进行训练,直到损失函数收敛,得到训练好的网络模型;5)将测试集中的粗聚焦SAR图像输入到训练好的网络模型中,得到聚焦后的SAR图像。本发明能够精确地估计运动误差导致的二维相位误差,提高了聚焦性能,加快了聚焦速度,可用于SAR图像成像。
技术领域
本发明属于雷达成像技术领域,特别涉及一种合成孔径SAR的自聚焦方法,可用于SAR成像。
背景技术
合成孔径雷达SAR是一种主动式微波成像系统,具有在不同气候和光照条件下对地面、海面进行全天候的观察能力,在地质资源勘探、海洋监测和城市规划等诸多应用中发挥了重要的作用。由于受到气流的扰动影响,无人机载SAR的运动轨迹通常与理想航迹存在偏差。如果不进行运动补偿,运动误差会导致图像散焦,甚至无法成像。由于受体积和成本的限制,在无人机载SAR上难以安装高精度的惯性导航系统,从而使得基于导航信息的运动补偿不能满足成像要求。为此,基于数据的自聚焦方法被提出来了,这些方法主要从回波数据或者成像结果中估计误差并补偿,来获取高质量的SAR图像。
目前,基于数据的自聚焦方法主要可以分为基于相位误差的自聚焦方法和基于图像质量的自聚焦方法。
Wahl在其发表的论文“Phase Gradient Autofocus-A Robust Tool for HighResolution SAR Phase Correction”《IEEE Transaction on Aerospace and ElectronicSystems》,1994,30(3):827-835)中提出了一种有效的基于相位误差的自聚焦方法,该方法通过对选取的特显点进行移位、加窗和相位误差梯度估计等处理得到相位误差,但是该方法在处理具有空变误差的SAR图像时,其聚焦效果很差。
Zeng在其发表的论文“SAR Image Autofocus Utilizing Minimum-EntropyCritrrion”《IEEE Geoscience and Remote Sensing Letters》,2013,10(6):1552-1556)中提出了一种经典的基于图像质量的自聚焦方法,其通过最小化图像熵来得到相位误差的最优解,但是该方法需要进行迭代搜索,耗时十分严重。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于深度学习的SAR自聚焦方法,以通过卷积神经网络直接估计二维相位误差并补偿,提高聚焦性能,加快聚焦速度。
为实现上述目的,本发明的技术方案包括如下:
(1)获取多幅粗聚焦SAR图像,将其按照4:1的比例随机划分为训练集和测试集;
(2)构建由八个卷积层和四个反卷积层依次级联组成的SAR自聚焦卷积神经网络,并将图像对比度损失函数loss1与相位一致损失函数loss2之和作为该神经网络的损失函数Loss,其中八个卷积层和前三个反卷积层后的激活函数同是ReLU函数,第四个反卷积层后的激活函数是线性函数;
(3)将单张粗聚焦SAR图像输入到构建的SAR自聚焦神经网络中,得到图像的二维相位误差预测值e-jθ,用图像的相位误差对其粗聚焦图像的相位进行补偿,并计算补偿后的单张SAR图像通过该网络的损失函数值L;
(4)利用图像训练集对SAR自聚焦神经网络进行训练:
(4a)设学习率参数为0.0001;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110772455.5/2.html,转载请声明来源钻瓜专利网。