[发明专利]一种基于综合置信的高光谱图像半监督分类方法有效
申请号: | 201910012238.9 | 申请日: | 2019-01-07 |
公开(公告)号: | CN109784392B | 公开(公告)日: | 2020-12-22 |
发明(设计)人: | 贺霖;余龙 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 裴磊磊 |
地址: | 511458 广东省广州市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 综合 置信 光谱 图像 监督 分类 方法 | ||
本发明公开了一种基于综合置信的高光谱图像半监督分类方法,包括:读入高光谱图像;计算图权重矩阵;8近邻连接稀疏化图权重矩阵;计算归一化图权重矩阵;获取初始训练集和候选集;设定协同训练迭代次数并开始训练过程;训练多项式逻辑回归分类器;使用多项式逻辑回归分类器得到候选集样本的预测标签;使用半监督图分类方法得到候选集样本的预测标签;选出两种预测标签一致的候选样本及对应的预测标签构成协定集,对应的置信系数构成综合置信集;筛选出综合置信系数高于99%的协定集样本及对应的预测标签,构成扩增集加入训练集;移除候选集中扩增集样本;判断训练是否达到设定次数,若未则继续迭代,若达到则停止,用半监督图分类高光谱图像。
技术领域
本发明涉及高维图像处理技术领域,具体涉及一种基于综合置信的高光谱图像半监督分类方法。
背景技术
高光谱图像是由高光谱传感器获取的、光谱分辨率达到纳米级的地物遥感图像。高光谱图像每个像素的光谱数据来自于不同波长的光在地物目标所处该像素位置上的反射率,光谱特征可以用于识别该像素所属的地物类别。高光谱图像有以下特点:大量的像素点、高维的光谱特征。同时,高光谱图像的“图谱合一”特性也反映了图像中空间信息较为丰富,光谱特征具有区分性。利用这些先验信息发展起来的高光谱图像分类技术相比全色图像、多光谱图像具有更加突出的地物识别能力,因此在城市规划、海洋探测、军事、天文等领域均受到广泛的关注。
另外,高光谱图像分类技术仍存在标记样本代价昂贵等问题,由于高光谱数据的光谱特征维度高、标记训练样本数量少,许多分类方法难以学习到有效的模型,也无法达到令人满意的分类精度。因此,针对数据量大、样本特征维度高、标记样本少的高光谱图像,设计合适的半监督学习方法从大量无标记样本中学习出更多的可分性信息,从而实现高光谱图像分类精度的提升,是高光谱图像分类领域较为重要的研究方向之一。
许多有监督分类方法如多项式逻辑回归虽然能够在不少分类问题中有不错的效果,但在半监督分类问题中,由于训练样本较少,对噪声较大的高光谱图像只能得到粗糙的分类结果;基于图的半监督分类方法虽然能够利用高光谱图像中的空间平滑性信息实现较为不错的分类结果,但该类方法的类边界区分能力十分弱。因此,已有的众多有监督、半监督学习方法在训练样本较少的情况下,对高光谱图像的分类能力有待提高。
发明内容
本发明的目的是针对现有技术的不足,提供了一种基于综合置信的高光谱图像半监督分类方法。首先利用高光谱数据建立了空间最近邻的图连接结构,然后结合空间信息和光谱信息以及多分类器综合置信筛选机制实现了训练样本的扩增,据此设计了一种基于综合置信和训练信息迭代扩增的协同训练自学习方法,最后利用半监督图分类方法对高光谱图像分类。所述基于综合置信的自学习方法十分适用于空间信息较多的高光谱图像数据,可以在无人为干预的情况下自学习出较为可靠的训练样本,极大地提升高光谱图像分类精度。
本发明的目的可以通过如下技术方案实现:
一种基于综合置信的高光谱图像半监督分类方法,所述方法包括以下步骤:
S1、读入三维高光谱图像立方体H(m,n,b),其中m、n表示空间像素点位置,b表示所处光谱波段位置;
S2、计算高光谱数据像素点之间的去样本均值的相关系数,用于构造图权重矩阵W,权重数值可以衡量像素点间的相似度;
S3、将步骤S2的图权重矩阵W中每个像素点与自身以及与空间8近邻外的像素点的相似度权重值置0,即只为每个像素点与其空间8近邻内的像素点间建立图连接,得到稀疏化的图权重矩阵
S4、计算归一化图权重矩阵
S5、获取初始训练集和候选集
S6、设定协同训练的迭代次数M,并开始协同训练过程;
S7、使用训练集训练多项式逻辑回归分类器,ξ∈[0,1,...,M-1]表示当前过程处于协同训练的第ξ+1次迭代;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910012238.9/2.html,转载请声明来源钻瓜专利网。