[发明专利]一种遥感影像分类方法在审
申请号: | 201710355440.2 | 申请日: | 2017-05-19 |
公开(公告)号: | CN107273807A | 公开(公告)日: | 2017-10-20 |
发明(设计)人: | 高红民;杨耀;李臣明;蔺硕;夏敏言;谢扬;张振;樊悦 | 申请(专利权)人: | 河海大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙)32204 | 代理人: | 饶欣 |
地址: | 211100 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 遥感 影像 分类 方法 | ||
技术领域
本发明涉及图像分类技术,特别是涉及一种遥感影像分类方法。
背景技术
高光谱遥感影像通常由同一场景的数百个数据通道组成。通过组合成像和光谱技术,高光谱遥感影像可以在空间和光谱上获得连续数据。由于高光谱传感器提供的详细光谱信息提高了精确分辨目标地物的效率,同时提高了分类精度,因此处理高光谱数据成为检测地球表面地物信息的重要途径。
大多数传统的分类方法只考虑单层处理,这使得对高光谱影像的学习深度不够,分类性能也有很大的局限性。相比于SVM等浅层分类器,含有多层隐含节点的神经网络能够更好地构建数据模型,且具备较好的分类性能。然而很多神经网络方法中网络在不同层之间是以完全连接形式存在,因而它们需要训练大量参数,在训练速度和分类精度上都会有很大程度影响,即其分类性能还有待提高。
发明内容
发明目的:本发明的目的是提供一种能够解决现有技术中存在的缺陷的遥感影像分类方法。
技术方案:本发明所述的遥感影像分类方法,包括以下步骤:
S1:输入数据,并采用比例混合法对输入的数据进行预处理;
S2:对样本进行归一化处理,归一化范围为[-1,1];
S3:构建深度卷积神经网络模型;
S4:将预处理后的数据按照卷积通道顺序输入深层卷积网络模型进行训练和测试;
S5:进行特征提取后得到输出结果,并将输出结果与真实数据进行特征匹配;
S6:输出分类结果。
进一步,所述步骤S1中的比例混合法为:把像素点作为处理单元进行训练和测试,以像素点为单位提取后,按照统一的转换次序,将三维数据变为二维形式的数据。
进一步,所述步骤S3具体包括以下步骤:
S3.1:设计基本卷积神经网络模型,并通过堆叠若干卷积层和最大池化层形成深层架构,卷积层和最大池化层交替架构;
S3.2:提出批次规范化算法,并使批次规范化模块以间隙插入的方式参与模型中卷积神经网络的深层构造;
S3.3:在输出端使用多项对数损失模型,从而控制输出。
进一步,所述步骤S3.2中的批次规范化算法如式(1)所示:
式(1)中,xi为最小批次数据B中的激活值,且B={x1...m},yi为批次规范化算法的输出,1≤i≤m;m为最小批次数据B的大小;γ为缩放参数,β为平移参数;
为归一化后的中间量,可由下式(2)得到:
式(2)中,ε是一个趋于0的常数,μB为已知最小批次数据B的均值,为已知最小批次数据B的方差。
进一步,所述步骤S3.3中的多项对数损失模型如式(3)所示:
式(3)中,l(x,c)是分类损失函数,c∈{1,...,C}H×W×1×N,c为地面真实类标签,x是表示C个不同类的后验概率的向量,后验概率p(k)=xk,k=1,...,C,H为输入数据的长,W为输入数据的宽,N为数据第三维的尺寸。
有益效果:本发明公开了一种遥感影像分类方法,训练过程收敛速度快,分类性能较好,扩展性强,可用于大型数据集的处理。可以为不同地物标签获得高的分类精度,从而提高遥感目标检测识别的效率。
附图说明
图1为本发明具体实施方式中方法的原理图;
图2为本发明具体实施方式中实验对象的图像;
图3为本发明具体实施方式中卷积神经网络处理流程示意图;
图4为本发明具体实施方式中批次规范化算法的操作示意图。
具体实施方式
本具体实施方式公开了一种遥感影像分类方法,包括以下步骤:
S1:输入数据,并采用比例混合法对输入的数据进行预处理,如图1所示;
本具体实施方式中采用西北印第安纳州(Indian Pines)的印度松树测试区的高光谱数据集最为实验对象。如图2所示,数据集由机载可见/红外成像光谱仪(AVIRIS)获取。其尺寸为145×145,并且在0.4-2.5μm的波长范围内具有220个光谱带。通过去除吸水带,使光谱带的数量减少到200。地面实况中提供了十六种不同的地物覆盖类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710355440.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于虚拟现实的书画练习方法及系统
- 下一篇:显示模组