[发明专利]一种基于地物结构相似度的异源遥感影像配准方法在审
| 申请号: | 201811318809.3 | 申请日: | 2018-11-07 |
| 公开(公告)号: | CN109685837A | 公开(公告)日: | 2019-04-26 |
| 发明(设计)人: | 郝明;金剑;周梦超 | 申请(专利权)人: | 中国矿业大学 |
| 主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/13 |
| 代理公司: | 徐州市淮海专利事务所 32205 | 代理人: | 张旭 |
| 地址: | 221000 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 特征点 配准 匹配 结构相似度 形状相似性 参考影像 输入影像 遥感影像 描述符 地物 异源 特征点匹配 形状上下文 光学影像 算法计算 特征点集 影像边缘 算子 分块 移除 影像 | ||
本发明公开了一种基于地物结构相似度的异源遥感影像配准方法,首先利用分块的Harris算子在参考影像上均匀的提取若干特征点,并形成多个特征点集;然后利用canny算子提取影像边缘,并根据形状上下文算法计算特征点处形状相似性描述符;再根据形状相似性描述符进行特征点匹配以获取同名点,并将错误匹配的特征点移除;最后根据正确匹配的特征点建立参考影像与输入影像间的对应关系对输入影像进行匹配。本发明能有效提高光学影像和SAR影像间的影像配准精度,便于后续的使用。
技术领域
本发明涉及一种异源遥感影像配准方法,具体是一种基于地物结构相似度的异源遥感影像配准方法。
背景技术
影像配准是动态监测、变化信息提取、信息复合等工作不可缺少的组成部分。不同传感器、多分辨率、多时相的遥感影像反映了地物的不同特性,为了获取各自优点需要将这些遥感数据匹配起来。然而,异源遥感影像(即光学影像和SAR影像)由于成像机理不同,影像间往往存在着灰度差异和几何差异,导致影像配准时难以获取特征点和同名点匹配,因此异源遥感影像的配准问题一直是当今世界研究的热点与难点。
目前遥感影像配准的方法主要分为:基于区域(灰度)的方法和基于特征的方法。基于区域的匹配方法是一种模板匹配的方法,以某种相似性测度为准则,在影像间进行同名点识别,最后根据同名点估计影像间的几何变换模型参数。常用的相似性测度有相关系数、相位相关和互信息等。基于区域的匹配方法计算效率高,配准精度高,但它们对影像间的非线性灰度差异非常敏感,所以它们无法较好适用于异源遥感影像的自动配准。因此,相较于灰度信息,影像间的几何结构属性受灰度差异的影响较小。
基于特征的方法是首先在参考影像上提取特征点、线、面等特征,然后构建特征的描述符,通过描述符间的相似性进行匹配,最终完成影像的配准。该方法可以很好地适应影像间的几何结构差异,但当影像间的非线性灰度差异较大时,就难以检测到影像间稳定的共有特征,特征点检测的重复率会大大下降,最终导致影像配准效果不佳。
发明内容
针对上述现有技术存在的问题,本发明提供一种基于地物结构相似度的异源遥感影像配准方法,能有效提高光学影像和SAR影像间的影像配准精度,便于后续的使用。
为了实现上述目的,本发明采用的技术方案是:一种基于地物结构相似度的异源遥感影像配准方法,具体步骤为:
(1)特征提取:采用分块的Harris算子提取参考影像的特征点;
(2)形状相似性描述符的构建:根据地物结构相似度,利用形状上下文算法构建形状相似性描述符;
(3)特征匹配:采用模板匹配的方法,以构建的形状相似性描述符间的NCC作为相似性测度(SCNCC),在搜索区域内寻找与特征点相关性最大的点作为特征点的同名点;
(4)误匹配点移除:设定标准误差值(如1个像素),计算得出的各个同名点的残差和均方根误差,将各个误差与标准误差值进行比较,若误差超过标准误差值,则移除该同名点,从而得出正确匹配的同名点;
(5)影像配准:根据正确匹配的同名点估计影像间的几何变换模型参数,并利用变换模型对输入影像进行几何变换,且对变换后影像的灰度值进行重采样,最终完成影像配准。
进一步,所述步骤(1)的特征提取具体过程为:将参考影像划分为若干个互不重叠、规则的格网,计算每个格网内每个像素的Harris强度值H,并将H值按从大到小的顺序排列,选取每个格网内前n个H值较大的点作为每个格网的特征点集,这样可以有效的避免提取的特征点过于密集或稀少等情况。
进一步,由于形状上下文是一种基于形状轮廓的特征描述方法,其在对数极坐标系下利用直方图描述形状特征能够很好地反映轮廓上采样点的分布情况;基于形状上下文原理,具体如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国矿业大学,未经中国矿业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811318809.3/2.html,转载请声明来源钻瓜专利网。





