[发明专利]基于半监督对抗深度网络的SAR图像变化检测方法有效
申请号: | 201910527007.1 | 申请日: | 2019-06-18 |
公开(公告)号: | CN110263845B | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 王英华;杨振东;王剑;刘宏伟;秦庆喜 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06F18/214 | 分类号: | G06F18/214;G06N3/04;G06F18/24 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 对抗 深度 网络 sar 图像 变化 检测 方法 | ||
本发明公开了一种基于半监督对抗深度网络的SAR图像变化检测方法,主要解决现有变化检测技术在有标签数据较少时检测效果虚警率高,检测区域不准确的问题。其方案是:1)利用二时相SAR图像数据,计算两图像的对数比差异图;2)在二时相SAR图像和差异图上提取训练样本和测试样本;3)构建变化检测双网络和两个判别网络;4)利用有标签数据进行监督训练,利用无标签数据进行对抗训练和协同训练,得到训练好的检测网络;5)将测试数据输入到训练好的变化检测网络中,得到变化检测结果。本发明结合大量无标签数据提取可分性的变化检测特征,提高了在有标签训练样本不足时,监督训练模型的泛化性能,可用于SAR图像变化检测。
技术领域
本发明属于雷达图像处理技术领域,特别涉及一种SAR图像的变化检测方法,可用于灾害监测、土地调查和目标侦查。
背景技术
SAR系统受天气条件和光照条件的影响较小,可以实现全天时全天候的对地观测,因此对多时相SAR数据进行变化检测是一种分析地球表面发生变化的重要手段,被广泛应用于灾害监测、土地调查和目标侦查。
传统SAR变化检测方法有三类:第一类为无监督的变化检测方法,如Celik等人提出的基于主成分分析和k均值聚类的变化检测方法;Gong等人提出的基于图像融合和模糊聚类的SAR变化检测方法;Yan Wang等人提出的基于SIFT关键点检测和区域信息的变化检测方法。第二类为有监督的变化检测方法,如Camps-Valls等人提出的基于核的变化检测方法利用了有标签数据作为训练样本;Yu Li等人基于匹配追踪的变化检测方法。第三类为半监督的变化检测方法,如Lu Jia等提出的基于邻域聚类核的SAR图像变化检测方法;Lin An等提出的基于随机场和最大熵的SAR图像半监督变化检测算法。
在上述三种方法当中,无监督方法不需要利用有标签数据,因此成为变化检测领域当中的主流方法,但由于缺少有标签数据的监督和指导,这类方法的检测结果一般与真实的变化区域相差较大,虚警较多。对于有监督方法而言,在有标签数据量较大的场景下,有监督方法能够取得很好的结果,但是现实场景当中,有标签数据的获取的代价是很大的,也就是说一般情况下有标签数据量是很少的,在这种情况下,有监督方法的效果会变差,模型的泛化性能变差。相比于有监督和无监督的方法,半监督的变化检测方法能够结合少量有标签数据和大量无标签数据共同学习,提取可分性的特征,提升检测性能。现有的半监督SAR图像变化检测方法一般基于传统机器学习中的半监督方法,模型的输入特征往往需要人工设计,无法有效利用原始数据的全部信息,导致较高的虚警率和较低的检测精度,因此限制了这类方法的性能。
发明内容
本发明的目的在于针对上述已有的三种SAR变化检测方法的不足,提出一种基于半监督对抗深度网络的SAR图像变化检测方法,以在有标签样本量很少的情况下,通过结合大量的无标签数据提高检测精度,降低虚警率。
本发明的技术方案是:首先利用滑窗模型提取少量的有标签样本和大量的无标签样本,再用有标签样本与无标签样本共同训练深度神经网络模型,待模型收敛后,将训练好的神经网络应用于测试数据之上,得到最终的变化检测标记图,其实现步骤包括如下:
(1)利用二时相SAR图像数据,计算这两幅图像的对数比差异图K;
(2)通过滑窗方式在二时相SAR图像和差异图上提取训练样本和测试样本,并从训练样本中随机选取4%作为有标签训练样本,其余作为无标签训练样本;
(3)构建训练网络模型:
(3a)设置SAR变化检测双网络Ψ1和Ψ2:
每个网络由六层结构组成,其中前四层为共享层,即第一层为全连接层L1、第二层为激活函数层ReLU、第三层为全连接层L2、第四层为激活函数层ReLU,第五和第六为非共享层,其中:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910527007.1/2.html,转载请声明来源钻瓜专利网。