[发明专利]基于自定义投影格点的多角度多源遥感数据空间位置配准方法及装置有效
申请号: | 201710046059.8 | 申请日: | 2017-01-22 |
公开(公告)号: | CN106846381B | 公开(公告)日: | 2019-07-02 |
发明(设计)人: | 陈圣波;李健 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06T7/30 | 分类号: | G06T7/30;G06T11/00 |
代理公司: | 北京易捷胜知识产权代理事务所(普通合伙) 11613 | 代理人: | 齐胜杰 |
地址: | 13001*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自定义 投影 角度 遥感 数据 空间 位置 方法 装置 | ||
本发明涉及一种基于自定义投影格点的多角度多源遥感数据空间位置配准方法及装置。该方法包括:获取多角度多源遥感数据data1和其它来源遥感数据data2;确定data1投影到投影格网1的图像1;确定data2投影到投影格网2的图像2;图像1与图像2之间精确配准。本发明充分利用多角度多源遥感数据自身带的原始科学数据及地理位置参考数据,在统一的编程环境中,只对多角度多源遥感数据的科学数据进行一次采样,实现两种数据精确配准。
技术领域
本发明涉及一种多角度多源遥感数据空间位置精确配准技术,尤其是涉及一种基于自定义投影格点的多角度成像光谱数据与其它来源遥感数据之间的空间位置精确配准方法。
背景技术
不同传感器、不同时相、不同观测角度的遥感数据之间空间位置的精确配准是遥感数据产品交叉验证、目标双向反射分布特征研究、多源遥感数据综合反演和长时间序列生物地球物理/化学参数分析的基础。
美国EOS(Earth Observation Satellite,地球观测卫星)上搭载的MISR(Multiangle Imaging Spectro-radiometer,多角度成像光谱仪)通过在9个角度同时获取多光谱成像数据的方式,直接观测目标的方向谱信息,为研究人员提供了特有的空间基多角度遥感观测信息源。
MISR数据与其它传感器数据进行空间配准是开展相关研究和应用的前提。依据配准目标数据源的特征以及不同研究或应用的自身需求,包含MISR数据的配准大体分为以下三类:基于离散点位的遥感反演产品验证方法;MISR与其它较高空间分辨率遥感(如ETM+)的配准;以及直接使用MISR L3级产品与其它遥感数据配准。基于离散点位的遥感反演产品验证方法只关注验证点位的图像配准结果对比,不直接考虑整景图像上逐个像素对应关系。MISR与其它较高空间分辨率遥感配准时,两种图像分别进行投影变换,设定允许误差,但并未预定义精确匹配的目标投影格点。还有一些工作直接使用MISR L3级产品,不涉及L2级产品SOM(Space Oblique Mercator,空间斜墨卡托)投影和分块偏移存储方式这些特殊问题。此外,投影到经纬度格点的变换不考虑相同大小经纬网格覆盖实际地表面积的纬向差异。
ENVI(The Environment for Visualizing Images)、HEG(The HDF-EOS ToGeoTIFF Conversion Tool)和MRT(Modis Reprojection Tool)等常用遥感数据软件不支持将MISR L2级数据直接转换到自定义的投影格点上,不便于与其它遥感数据产品进行逐像素精确配准,而间接多步配准会对遥感数据多次重采样,造成信息损失。
发明内容
(一)要解决的技术问题
为了避免间接多步配准会对遥感数据多次重采样,造成信息损失,本发明提供一种基于自定义投影格点的多角度多源遥感数据空间位置配准方法,该方法:获取多角度多源遥感数据data1和其它来源遥感数据data2;确定data1投影到投影格网1的图像1;确定data2投影到投影格网2的图像2,使得图像1与图像2之间精确配准,充分利用多角度多源遥感数据自身带的原始科学数据及地理位置参考数据,在统一的编程环境中,只对多角度多源遥感数据的科学数据进行一次重采样,实现两种数据精确配准。
(二)技术方案
为了达到上述目的,本发明采用的主要技术方案包括:
一种基于自定义投影格点的多角度多源遥感数据空间位置配准方法,所述方法,包括:
101,获取多角度多源遥感数据data1和其它来源遥感数据data2;
102,确定data1投影到预先自定义的投影格网1的图像1;
103,确定data2投影到预先自定义的投影格网2的图像2;
所述图像1与所述图像2之间精确配准。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710046059.8/2.html,转载请声明来源钻瓜专利网。