[发明专利]基于双通道注意力的跨场景遥感图像深度对抗迁移方法有效
| 申请号: | 202210217440.7 | 申请日: | 2022-03-07 |
| 公开(公告)号: | CN114332649B | 公开(公告)日: | 2022-05-24 |
| 发明(设计)人: | 黄怡;彭江涛;陈娜;宁羽杰;苏涵 | 申请(专利权)人: | 湖北大学 |
| 主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/764;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 武汉泰山北斗专利代理事务所(特殊普通合伙) 42250 | 代理人: | 程千慧 |
| 地址: | 430062 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 双通道 注意力 场景 遥感 图像 深度 对抗 迁移 方法 | ||
本发明涉及基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,主要包括以下步骤:1、将源域和目标域中的每个样本转化为一个三维数据立体块;2、构建深度对抗迁移学习网络,该网络主要包含一个生成器和两个分类器;将源域样本数据投入网络进行初步训练,得到网络参数;3、训练分类器;4、训练生成器,与步骤3形成对抗训练;5、迭代训练:将步骤2‑4进行反复迭代,更新生成器和分类器;6、预测目标域样本标签并评估:网络迭代收敛后,用对抗网络中分类器对目标域样本进行分类,得到预测标签。本发明可以应用于跨场景遥感图像迁移学习,所提出的方法在跨场景高光谱遥感图像分类问题中优于一些现有的非深度和深度迁移学习方法。
技术领域
本发明涉及卫星遥感领域领域,具体讲的是一种基于双通道注意力的跨场景遥感图像深度对抗迁移方法。
背景技术
目前,世界各国发射了大量遥感卫星,大量的遥感影像历史数据以及在轨数据,为生态环境监测、土壤质量评估、地质矿物填图等实际应用提供了大数据支撑。但是实际应用中仍存在一个关键问题:不同场景对应的遥感影像之间存在较大差异,例如影像分辨率差异、光谱辐射差异、时空差异、地域差异等,导致不同影像之间的知识无法迁移、传递和共用。针对这一问题,本专利采用如下策略:考虑到相似的场景或相同的传感器对应的高光谱数据具有相似的特性,采用迁移学习技术,构建深度对抗迁移学习网络,借助已标记的历史场景影像数据(源域),实现对未标记场景影像(目标域)的自动分类。在这种情况下,如果成功地进行了知识迁移,将避免目标域复杂的数据标记工作,大大提高学习的性能。
这里需要指出的是,迁移学习与传统的分类方法是明显不同的。传统的分类方法,假设训练数据和测试数据具有相同的分布,用训练数据学习模型,然后对测试数据进行分类。但是,在迁移学习中,源域和目标域样本分布是不同的,不符合数据同分布假设;源域学习得到的模型不再适用于目标域,因此不能直接进行分类。本专利提出的基于双通道注意力机制的深度对抗迁移学习模型,结合高光谱遥感影像的数据特点,设计双通道注意力架构,有效提取高光谱数据的空间和光谱联合特征;同时,采用生成对抗网络,逐步更新特征生成器和分类判别器,从而使得源域和目标域特征差异逐渐减小,实现源域和目标域模型共用与迁移。
发明内容
本发明要解决的技术问题是提供一种适用于跨场景高光谱遥感图像分类的深度迁移学习方法。本发明采用以下技术方案:
基于双通道注意力的跨场景遥感图像深度对抗迁移方法,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北大学,未经湖北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210217440.7/2.html,转载请声明来源钻瓜专利网。





