[发明专利]基于深度自监督生成对抗的单通道高分辨SAR图像地物分类方法在审
申请号: | 202211380456.6 | 申请日: | 2022-11-04 |
公开(公告)号: | CN115565019A | 公开(公告)日: | 2023-01-03 |
发明(设计)人: | 任仲乐;杜哲;汪浩然;陈亚涵;刘少博;侯彪;焦李成 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/20;G06V10/40;G06V10/82 |
代理公司: | 西安智大知识产权代理事务所 61215 | 代理人: | 贺建斌 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 监督 生成 对抗 通道 分辨 sar 图像 地物 分类 方法 | ||
一种基于深度自监督生成对抗的单通道高分辨SAR图像地物分类方法,上游自监督任务采用循环生成对抗网络进行多域图像风格转换任务,将不同属性的源域真实图像风格转换为目标属性的目标域生成图像;并使用对抗网络判别图像来自于源域还是目标域,同时提取图像的属性特征进行分类并对齐特征分布;在下游地物分类任务中,迁移上游训练良好的特征编码器作为预训练模型,使用少量有标记样本对分类模型进行微调;本发明通过上游自监督任务为下游地物分类任务提供训练良好且通用性好的特征编码器,缓解有监督训练样本缺乏、特征泛化性不足的缺陷,提升模型的分类性能。
技术领域
本发明属于SAR图像智能解译技术领域,具体涉及一种基于深度自监督生成对抗的单通道高分辨SAR图像地物分类方法。
背景技术
合成孔径雷达(SAR)是一种全天候、全天时、具备一定穿透性的主动微波成像雷达,凭借这些特点,SAR图像应用范围覆盖从海洋学到考古学的各个领域。SAR图像地物分类是合成孔径雷达解译的基础性步骤,在环境保护、资源监测等众多应用场景具有重要作用。
有效和关键的特征学习是决定地物分类性能的关键,传统的特征提取技术包括灰度共生矩阵、Gabor变换、稀疏表示等。基于深度学习的特征提取技术使用大量训练样本,以端到端的方式训练网络,自动地进行特征学习。目前,基于深度学习的特征提取技术在SAR图像地物分类领域已经取得一定的成果,但现有依赖有监督标记的深度学习方法成本很高,面临着建模步骤繁琐、标记数据稀缺、图像标记难度大、不同成像参数下特征差异造成的通用性不足等问题。
现有方法通常采用自监督学习来缓解上述问题。自监督学习一般由上游的辅助任务和下游的目标任务组成,上游通过设计辅助任务,自动挖掘无标签数据自身的表征特征作为监督信息,训练模型以提高特征学习能力;下游任务通过迁移上游任务的特征编码器,在少量样本下训练目标任务模型,获得较好的分类性能。自监督学习根据上游任务可分为生成式自监督学习和判别式自监督学习。生成对抗网络(GAN)是生成式自监督学习的一类主流方法,它要求生成或重建输入图像的全部或者一部分,在此过程中模型能够学习图像语义特征,并包含部分像素级细节信息。基于重建输入图像全部或者一部分的生成式自监督学习受限于模型和计算量,其提取特征的通用性仍然不足。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供了一种基于深度自监督生成对抗的单通道高分辨SAR图像地物分类方法,采用多域图像风格转换任务作为上游辅助任务,来学习图像的特征表示;使用单一模型来实现多个场景、成像参数迥异的SAR图像之间的风格转换,极大简化了建模步骤,提升了模型对不同表现形式地物的特征学习,减少了下游地物分类任务对标记数据的需求。
为实现上述目的,本发明采取的技术方案为:
一种基于深度自监督生成对抗的单通道高分辨SAR图像地物分类方法,包括以下步骤:
步骤1,输入高分辨率SAR图像,对于输入SAR图像的每类场景和类别随机裁剪相同数量的图像块组成上游图像风格转换任务和下游地物分类任务训练数据;
步骤2,对上游风格转换任务训练数据进行数据预处理,包括SAR图像裁剪、归一化和伪标签的生成;
步骤3,将源域真实图像输入上游图像风格转换任务的编码器网络E,提取图像特征;同时将目标标签送入映射网络M生成目标域风格代码;最后将图像特征和目标域风格代码送入生成器网络G,获得目标域生成图像;
步骤4,将源域真实图像和目标域生成图像送入鉴别器网络D进行训练,并更新鉴别器网络参数;
步骤5,再次输入源域真实图像和目标标签,生成目标域生成图像,然后将目标域生成图像和源域标签输入编码器网络、映射网络和生成器网络,获得源域重构图像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211380456.6/2.html,转载请声明来源钻瓜专利网。