[发明专利]基于高分遥感影像区域信息和卷积神经网络的分类方法在审
申请号: | 201710496751.0 | 申请日: | 2017-06-26 |
公开(公告)号: | CN107358176A | 公开(公告)日: | 2017-11-17 |
发明(设计)人: | 马国锐;熊微微;杨嘉树;眭海刚;梅天灿 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/62;G06N3/08 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙)42222 | 代理人: | 薛玲 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 高分 遥感 影像 区域 信息 卷积 神经网络 分类 方法 | ||
技术领域
本发明属于遥感影像数字图像处理领域,具体涉及一种基于高分辨率遥感影像区域信息和卷积神经网络的分类方法。
背景技术
高分辨率遥感影像分类是遥感影像理解的重要环节,也是遥感应用的关键技术之一。影像分类是影像理解的基本任务。随着相关技术的发展,遥感影像中包含的信息越来越多,地物类别之间的描述信息更为丰富。研究如何快速有效地实现高分辨率影像分类重要意义。分类方法的关键在于不同地物类型特征的提取,在特征的基础上实现分类。高分影像中存在的异物同谱和同物异谱现象使得现有的一些方法在对高分辨率影像分类时有很大的局限性。卷积神经网络(convolution neural network,CNN)是一种深度学习结构。卷积神经网络模拟生物视觉系统分层处理信息的机理,通过学习的方法得到数据特征。数据在网络中经过逐层抽象,卷积神经网络组合数据的局部特征后可得到描述数据的全局特征。卷积神经网络只需输入图像数据,使自动提取数据特征成为可能,减少了手动设计的特征需要特定领域相关背景知识的困扰。另外,卷积神经网络提取的特征,相对于人工设计的特征,在图像分类和目标识别等领域的表现更优。
此外,现有基于卷积神经网络的分类方法需要首先确定目标在影像中可能出现的位置,然后在该位置开一个窗口,最终根据窗口内的数据确定目标的类别。遥感影像分类需确定每个像素的类别,因此要以每个像素为中心开窗获取数据确定当前像素的类别。这种处理导致计算效率低下,窗口大小选择不合适也会显著影响分类性能。
由上述可知,对高分辨率遥感影像分类是一项充满挑战的任务,现有技术有很大局限性,无法对高分辨率影像进行快速有效分类。
发明内容
针对现有技术存在的不足,本发明提供了一种更为快速有效的高分影像分类方法。
为解决上述技术问题,本发明采用如下的技术方案:
基于高分遥感影像区域信息和卷积神经网络的分类方法,包括训练阶段和分类阶段,其中训练阶段具体包括如下步骤:
步骤1.1,随机生成卷积神经网络中各层连接的权值wj和偏置bj,其中j=1,2,...,L,j为网络层索引;
步骤1.2,将训练图像及其对应标签送入卷积神经网络进行训练,得到网络输出与标签的偏差后,将该偏差逐层反向得到各层的偏差,并对神经网络的权值和偏置进行更新,从而得到卷积神经网络模型;
分类阶段具体包括如下步骤:
步骤2.1,使用均值漂移方法过分割高分辨率遥感影像,得到遥感影像的区域分割结果;
步骤2.2,在区域分割的结果中选取影像块,将影像块送入步骤1.2中的卷积神经网络模型进行分类,影像块的分类结果即为区域的分类结果,实现方式如下,
记均值漂移法分割后其中的第i个区域像素数目为Pi,区域的外接矩形总像素数为Ri,第i个区域的窗口采样影像大小为M×M的窗口影像数据,像素数目为Ci;每个区域至少包含的像素数为Np,Ci中第i个区域的像素在窗口总像素比为w,设定最小比为w0;
1)若Pi≤Np,以区域中心像素为中心的M×M窗口影像作为卷积神经网络模型输入,输出作为该区域的分类结果;
2)若Pi>Np,取M×M窗口,并以区域外接矩形左上角的坐标为窗口左上点坐标,若w>wo,取该窗口影像为窗口采样影像;否则,向下或向右滑动M×M窗口,直至w>wo,若遍历区域后窗口采样影像中均不满足w>wo,则取w最大的M×M窗口的影像数据作为窗口采样影像,输入卷积神经网络模型,将输出作为区域的分类结果;
步骤2.3,对高分辨率遥感影像的每个区域进行步骤2.2的处理,得到整幅影像的分类结果。
而且,所述步骤1.2中训练图像及其对应标签通过如下步骤获得,
a.以M×M大小的窗口在高分辨率遥感影像与其对应真实类别图上滑动,固定步长,得到小块影像集S1和对应类别集合L1;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710496751.0/2.html,转载请声明来源钻瓜专利网。