[发明专利]基于CPU和GPU协同处理的全色和多光谱影像实时融合方法有效
申请号: | 202110877331.3 | 申请日: | 2021-07-31 |
公开(公告)号: | CN113570536B | 公开(公告)日: | 2022-02-01 |
发明(设计)人: | 赵薇薇;王密;吕守业;谢广奇;王艳;张彪 | 申请(专利权)人: | 中国人民解放军61646部队 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T7/73;G06T1/20 |
代理公司: | 北京丰浩知识产权代理事务所(普通合伙) 11781 | 代理人: | 李学康 |
地址: | 100192*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 cpu gpu 协同 处理 全色 光谱 影像 实时 融合 方法 | ||
本发明公开了一种基于CPU和GPU协同处理的全色和多光谱影像实时融合方法,对全色多光谱数据进行快速融合处理,生成具有高空间分辨率及高光谱分辨率的融合影像。本发明将全色与多光谱融合的所有步骤都在内存中完成,并且将计算量较大的步骤都映射到GPU进行,能够在保障融合精度的同时极大地提高融合效率,通过RFM考虑了全色多光谱之间严密的几何对应关系,再通过微分纠正最大限度地限制了全色多光谱之间可能存在的几何偏差,使得全色与多光谱的配准效果能够达到最优,最后通过基于多尺度的SFIM融合方法与全色光谱分解的影像融合方法获取效果最优的融合图像。本发明适用于大数据量的传感器数据快速融合处理需求。
技术领域
本发明属于图像处理领域,具体涉及一种基于CPU和GPU协同处理的全色和多光谱影像实时融合方法。
背景技术
从传感器的工作方式的角度看,影像数据分为多光谱影像和全色波段图像。全色波段图像数据具有比较高的空间分辨率,而光谱分辨率较低;多光谱影像数据由于采用窄波段光源进行成像,光谱分辨率较高而空间分辨率很低。全色多光谱融合方法就是将这两者的优点结合起来,使融合后图像既具有高的空间分辨能力又具有高的光谱分辨能力,以利于后期的判读和处理。
对于相机而言,探测像元,简称探元,只有接受到足够的能量才能维持信噪比,采用多光谱单波段成像时,传感器接收能量弱,只能增大探元尺寸,从而导致多光谱影像的空间分辨率低于全色波段图像;而全色波段图像的空间分辨率虽然高于多光谱,但是为了增加接收能量的强度,其传感器波谱范围较宽,其图像的光谱分辨能力低于多光谱。在相等的条件下,提高空间分辨率必然会降低光谱分辨率,这是不可调和的矛盾。因此在相机实际设计的过程中,高频空间信息与光谱信息相分离,一般的光学传感器只提供高分辨率全色影像和低分辨率多光谱影像。如何得到光谱信息与多光谱影像的融合影像是研究的重点。
随着社会、经济和科技的发展,影像分辨率已经达到米级或亚米级,其单景一级全色影像数据量也逐步增加,全色数据量的增加也会导致融合数据的迅速增加,最高可达上百GB。当任务对时效性的要求非常高,甚至到分钟级响应需求时,对光谱图像的融合处理算法提出了很高的要求,传统的融合处理方法延时较高,难以满足快速处理的需求。
发明内容
为了突破全色多光谱快速融合的瓶颈,满足不同任务快速反应的重大需求,迫切需要研究新的全色多光谱影像融合高性能处理的方法,本发明公开了一种基于CPU和GPU协同处理的全色和多光谱影像实时融合方法,在保障融合效果的前提下,有效地提升了大数据量融合的效率,具有一定理论价值与实际意义。
为了解决大数据量的全色和多光谱融合过程中效率较低的问题,本发明主要基于CPU/GPU协同处理,整个处理流程都在内存当中进行,CPU负责流程控制与并行规则划分,GPU负责并行处理。本发明提出了一种基于CPU和GPU协同处理的全色和多光谱影像实时融合方法,其具体步骤包括:
S101,通过有理函数模型计算全色影像和多光谱影像的重叠区域;
通过有理函数模型RFM确定全色影像与多光谱影像各自的物方坐标,物方坐标表达式为(B,L,H),其包括大地纬度B、大地经度L、大地高H,H为平均的大地高程。
对物方坐标进行归一化处理,得到归一化后的物方坐标(U,V,W),其计算公式为:
其中,LonOff,LatOff,HeiOff分别为物方坐标(B,L,H)的平移值,LonScale,LatScale,HeiScale分别为物方坐标(B,L,H)的缩放值。
对于每一景影像,归一化后的物方坐标(U,V,W)与像方坐标(sn,ln)的关系用多项式比值形式表示为:
其中,等号右边的多项式分子、分母的表达式分别为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军61646部队,未经中国人民解放军61646部队许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110877331.3/2.html,转载请声明来源钻瓜专利网。