[发明专利]基于单应性估计和扩展卡尔曼滤波的无人机位置估计方法在审
申请号: | 201610066069.3 | 申请日: | 2016-01-30 |
公开(公告)号: | CN105719314A | 公开(公告)日: | 2016-06-29 |
发明(设计)人: | 潘泉;靳珍璐;赵春晖;魏妍妍;王荣志 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06T7/00;G06T3/40;G01C11/06 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 王鲜凯 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 单应性 估计 扩展 卡尔 滤波 无人机 位置 方法 | ||
技术领域
本发明属于无人机位置估计方法,涉及一种基于单应性估计和扩展卡尔曼滤波的无人机位置估计(AHomographyEstimaitonandExtendedKalmanFilter-basedLocalizationMethodforUnmannedAerialVehicle,HE-EKF-LM)方法,该方法能够消除无人机位置估计的累积误差,并实时构建环境地图,实现无人机位置参数的精确估计功能。
背景技术
在无人机视觉导航领域,无人机位置估计与环境构图至关重要,无人机位置参数的估计是实现自主导航的核心,研究可靠、高精度的视觉位置估计方法是提高无人机位置参数估计精度的重要手段,具有重要的理论意义和应用价值。
在线图像拼接技术,当无人机对某一区域重访时,认为其航迹形成闭环,并利用该区域的位置信息在扩展卡尔曼滤波器(ExtendedKalmanFilter,EKF)的框架下检测并消除无人机位置估计的累积漂移,从而为无人机提供精确的位置信息。一般情况下,计算图像之间的单应关系,可以对无人机的位置进行实时估计,然而,随着时间增加,传统的静态图像拼接方法对位置估计的累积误差会不可避免的增大,位置参数估计结果并不准确。需要考虑拼接过程中的不确定性因素,能够完成在线图像拼接,在无人机位置估计过程中保持一定的可靠性。与传统方法相比,基于在线图像拼接的位置估计技术在位置估计精度和可靠性方面具有较大优势。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于单应性估计和扩展卡尔曼滤波的无人机位置估计方法。
技术方案
一种基于单应性估计和扩展卡尔曼滤波的无人机位置估计方法,其特征在于步骤如下:
步骤1、对无人机捕获的图像序列中相邻的两帧图像进行单应矩阵的鲁棒估计:首先提取相邻的两帧图像的特征点,然后进行匹配:
1)当匹配点被追踪的成功率超过65%时,采用全单应模型,利用LMeDS剔除误匹配点,并采用M估计器计算单应矩阵;
2)当匹配点被追踪的成功率在40%到65%之间时,采用仿射单应模型,并利用松弛M估计器估算单应矩阵;
3)当匹配点被追踪的成功率低于40%时,采用欧式单应模型,并利用最小二乘计算单应矩阵;
步骤2、计算单应矩阵估计的协方差:
给定一个具有n对匹配点的集合Sm={{m1,m′1},{m2,m′2},…,{mn,m′n}},其中,mi和m′i分别表示两个匹配点的像素位置,则描述不确定性的协方差矩阵Ch的计算过程为:
1)计算从m到m′的单应性变换的雅克比矩阵J;
2)计算每对匹配点匹配误差的协方差即m′i和之间残差的协方差,假设各对匹配点的匹配误差之间不相关,则总协方差为
3)计算单应估计的协方差矩阵,即
步骤3、基于单应关系的运动估计:
无人机运动参数R12、t2和n1与相邻的两帧图像之间的单应矩阵满足关系式其中R12是将第一帧图像相机坐标系中的向量变换到第二帧图像相机坐标系中向量的旋转矩阵,t2是第二帧图像相对于第一帧图像的相机坐标系的相对位移,n1为第一帧图像相机坐标系中垂直于图像平面的单位向量(取沿相机向外的方向为正),I为单位矩阵,A为相机标定矩阵,d1是第一帧图像相机位置到图像平面之间的距离。基于奇异值分解,关系式可以表示为已知H12、A和d1时,根据该关系式可以由无人机捕获的图像序列对无人机运动参数R12、t2和n1进行求解;
步骤4:更新图像拼接数据库:
每当UAV采集到一帧新的图像,图像拼接数据库的更新参数包括:
1)当前图像与前一帧图像之间的单应矩阵及其协方差;
2)将该单应矩阵乘以拼接数据库内之前所有的单应矩阵,即计算组合单应矩阵,更新该图像在拼接中相对参考帧的位置;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610066069.3/2.html,转载请声明来源钻瓜专利网。