[发明专利]一种基于改进区域卷积神经网络的景象匹配定位方法在审
申请号: | 201811310762.6 | 申请日: | 2018-11-06 |
公开(公告)号: | CN109543819A | 公开(公告)日: | 2019-03-29 |
发明(设计)人: | 吕志远;薛新华;陈华洋;孙二洋;魏广伟;刘沛 | 申请(专利权)人: | 中国电子科技集团公司第二十八研究所 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06K9/00 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 王安琪 |
地址: | 210000 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 景象匹配 神经网络 编码器 金字塔 匹配 多层神经网络 抗噪声能力 算法复杂度 改进 定位位置 定位性能 鲁棒特性 鲁棒特征 匹配区域 匹配图像 匹配位置 输出匹配 特征提取 图像特征 网络参数 系统结构 抗干扰 网络权 池化 降噪 维度 采集 景象 优化 分析 | ||
本发明公开了一种基于改进区域卷积神经网络的景象匹配定位方法,包括如下步骤:(1)提出基于改进SPP‑Net的系统结构;(2)采用降噪自编码器基本原理训练多层神经网络,获取各层网络权重参数,系统的抗噪声能力和对不完整景象图匹配的鲁棒特性取决于自编码器的性能;(3)利用深度神经网络采取匹配参考图的特征,并进行金字塔池化,获取不同维度的图像特征;利用相同网络参数的深度神经网络采集待匹配图像特征,将获取特征与金字塔特征进行相关性判别,确定特征最相似的匹配区域,进行匹配位置调整,输出匹配定位位置。本发明优化了特征提取与相关分析的算法复杂度,同时有效利用卷积神经网络抗干扰和鲁棒特征,提高了景象匹配定位性能。
技术领域
本发明涉及景象匹配技术领域,尤其是一种基于改进区域卷积神经网络的景象匹配定位方法。
背景技术
景象匹配定位方法一直是精确制导导弹武器装备研究、基于景象的定位等领域重点关注的问题。现阶段景象匹配制导的常用方法是SIFT(尺度不变特征变换)与SURF(快速鲁棒特征)算法,具有算法成熟、识别速度快的特点;然而,以上算法针对特定的卫星影像图,特征的选取不能实现全自动化,需要人工参与;针对变化、不完整以及噪声干扰严重的景象图,匹配效果不佳。
发明内容
本发明所要解决的技术问题在于,提供一种基于改进区域卷积神经网络的景象匹配定位方法,优化了特征提取与相关分析的算法复杂度,同时有效利用卷积神经网络抗干扰和鲁棒特征,提高了景象匹配定位性能。
为解决上述技术问题,本发明提供一种基于改进区域卷积神经网络的景象匹配定位方法,包括如下步骤:
(1)提出基于改进SPP-Net的系统结构;
(2)采用降噪自编码器基本原理训练多层神经网络,获取各层网络权重参数,系统的抗噪声能力和对不完整景象图匹配的鲁棒特性取决于自编码器的性能;
(3)利用深度神经网络采取匹配参考图的特征,并进行金字塔池化,获取不同维度的图像特征;利用相同网络参数的深度神经网络采集待匹配图像特征,将获取特征与金字塔特征进行相关性判别,确定特征最相似的匹配区域,进行匹配位置调整,输出匹配定位位置。
优选的,步骤(1)中,改进SPPNET网络结构分为两部分,第一部分是匹配参考图的特征提取与特征金字塔构建,包括匹配参考图输入层、若干卷积层与池化层、特征金字塔提取层,该部分的卷积网络参数利用堆叠降噪自编码器方式进行训练得到,针对特定的匹配参考图,通过预先提取特征和构建金字塔的方式加快运行时计算速度;第二部分是待匹配图的特征提取与匹配位置计算,包括待匹配图输入层、若干卷积层与池化层、特征相关分析与位置调整层。
优选的,步骤(2)中,采用降噪自编码器基本原理训练多层神经网络,获取各层网络权重参数具体为:编码过程为:
h=f(z)
其中,z是噪声污染后的输入,h为自编码器提取的输入特征值;
解码过程为:
y=f(h)
其中,y为从自编码器重构的输入值;
解码后,要求损失最小,即:
L(x,y)=L(x,g(f(z)))
为了适应卫星景象匹配应用场景,采用增加二进制掩码噪声的方式对图像加噪声,采用一定概率将输入x的分量赋值为0,从而得到受噪声干扰的z。
优选的,步骤(3)中,将获取特征与金字塔特征进行相关性判别,确定特征最相似的匹配区域,进行匹配位置调整,输出匹配定位位置具体包括如下步骤:
(31)匹配大尺度特征图中各个子图与待测图像特征图,根据特征相关分析获取匹配概率;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国电子科技集团公司第二十八研究所,未经中国电子科技集团公司第二十八研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811310762.6/2.html,转载请声明来源钻瓜专利网。