[发明专利]基于双通道注意力的跨场景遥感图像深度对抗迁移方法有效
| 申请号: | 202210217440.7 | 申请日: | 2022-03-07 |
| 公开(公告)号: | CN114332649B | 公开(公告)日: | 2022-05-24 |
| 发明(设计)人: | 黄怡;彭江涛;陈娜;宁羽杰;苏涵 | 申请(专利权)人: | 湖北大学 |
| 主分类号: | G06V20/13 | 分类号: | G06V20/13;G06V10/764;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 武汉泰山北斗专利代理事务所(特殊普通合伙) 42250 | 代理人: | 程千慧 |
| 地址: | 430062 湖北*** | 国省代码: | 湖北;42 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 双通道 注意力 场景 遥感 图像 深度 对抗 迁移 方法 | ||
1.基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,包括以下步骤:
步骤1、数据预处理,将源域与目标域中的每个样本转换为三维立方块,得到源域样本数据和目标域样本数据;
步骤2、构建包含一个生成器和两个分类器的深度对抗迁移学习网络,所述生成器利用输入数据生成输出数据,并将输出数据分别输入两个分类器,每个分类器均用于对输入的数据进行分类并输出分类结果;所述生成器采用双通道挤压激励注意力机制,其中双通道指光谱与空间通道,挤压激励注意力机制分别用于对光谱信息与空间信息进行注意力加权;
步骤3、将步骤1中的源域样本数据输入深度对抗迁移学习网络,对深度对抗迁移学习网络进行预训练,得到预训练后的深度对抗迁移学习网络;
步骤4、固定预训练后的深度对抗迁移学习网络的生成器的参数,对两个分类器进行训练;将步骤1中的源域样本数据和目标域样本数据输入预训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算每个分类器的源域样本分类损失和两个分类器之间的输出差异,训练两个分类器直到两个分类器之间的输出差异达到最大值且每个分类器的源域样本分类损失均达到最小值后结束训练;训练完毕后,保存训练后的分类器参数得到二次训练后的深度对抗迁移学习网络,转到下一步;
步骤5、固定二次训练后的深度对抗迁移学习网络中两个分类器的参数,对生成器进行训练,与步骤4形成对抗训练;将步骤1中的源域样本数据输入二次训练后的深度对抗迁移学习网络中,生成器分别提取源域和目标域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签和目标域预测标签,计算两个分类器之间的输出差异,训练生成器,直到两个分类器之间的输出差异达到最小值判断一次训练完成,重复训练直到训练次数达到预设训练次数后判断训练完毕;训练完毕后,保存训练后的生成器参数和上一步训练后的分类器参数,得到本次迭代后的深度对抗迁移学习网络,迭代次数加1,计算本次迭代后的深度对抗迁移学习网络的每个分类器的输出值的总体准确率即OA值,若迭代次数达到预设最大次数或任意一个分类器的OA值大于预设阈值,则转到下一步,否则转到步骤3,并将步骤3中的对抗迁移学习网络更新为本次迭代后的深度对抗迁移学习网络;
步骤6、选择最后一次迭代后的深度对抗迁移学习网络中的生成器和两个生成器中总体准确率更高的一个分类器组成最终深度对抗迁移学习网络。
2.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述步骤3的具体训练方法为:将步骤1中的源域样本数据输入深度对抗迁移学习网络中,生成器提取源域样本的光谱与空间联合特征并同时输入两个分类器,得到两个分类器对应的源域预测标签,计算每个分类器的源域样本分类损失,训练两个分类器直到每个分类器的源域样本分类损失均达到最小值后结束训练。
3.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述计算源域样本分类损失的方法包括以下步骤:
将提取的源域的光谱与空间联合特征投入分类器,计算得到分类器的源域样本分类损失的方法为:假设源域样本共有类,第s类源域样本中包括的样本为;计算第s类样本的分类损失值T的公式为:
T=,其中为源域样本属于第类的概率,计算得到每一类源域样本的分类损失值,并求得所有类别源域样本的分类损失值的平均值即得到源域样本分类损失,所述利用函数计算。
4.根据权利要求1所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,所述步骤4和5中计算两个分类器之间的输出差异的方法为:
将提取的目标域样本的光谱与空间联合特征投入两个分类器,假设目标域样本为,则得到两个分类器对应的预测概率向量分别为,计算得到针对样本的分类器输出差异W=,,和分别表示两个分类器对第
5.根据权利要求3所述的基于双通道注意力机制的跨场景遥感图像深度对抗迁移学习方法,其特征在于,函数的计算公式为:
其中,为第个样本的特征,为类别数,表示样本或特征属于第类的概率,为自然常数,分类时,将样本或特征分到概率最大值对应的类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖北大学,未经湖北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210217440.7/1.html,转载请声明来源钻瓜专利网。





