[发明专利]使用消费级GPS和2.5D建筑物模型的面向SLAM的室外定位方法有效
申请号: | 201910939643.5 | 申请日: | 2019-09-30 |
公开(公告)号: | CN110749308B | 公开(公告)日: | 2021-10-29 |
发明(设计)人: | 张剑华;刘儒瑜;刘嘉玲;尹科杰;陈胜勇 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G01C9/00 | 分类号: | G01C9/00;G01S19/53;G01S19/41;G06T17/00 |
代理公司: | 杭州斯可睿专利事务所有限公司 33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 使用 消费 gps 2.5 建筑物 模型 面向 slam 室外 定位 方法 | ||
一种使用消费级GPS和2.5D建筑物模型的面向SLAM的室外定位方法,包括如下步骤:1)建立坐标系及坐标系之间的统一;2)在系统初始化阶段使用传感器估计相机位姿和2.5D建筑模型,获得图像深度图;再在图像上提取ORB特征点并在深度图上获取特征点对应的深度值,并用于创建3D地图点,从而构建SLAM初始化地图;3)在系统后端优化过程中,在成功跟踪地图点后,系统利用重投影误差同时优化地图点和相机位姿,最后当SLAM系统建立后,系统添加基于建筑物模型优化项和传感器优化项进行优化。本发明既能够快速初始化,又能提升室外相机定位和环境重建的精度。
技术领域
本发明涉及相机的室外姿态估计与跟踪,尤其是一种使用消费级GPS和2.5D 建筑物模型的面向SLAM的姿态估计与跟踪方法。
背景技术
相机的姿态估计与跟踪技术是利用传感器或图像信息对相机的旋转方向和位置进行估计的过程。目前,相机的室外姿态估计和跟踪方法分为基于传感器的方法,基于视觉的方法以及多种传感器融合的方法。基于传感器的方法利用GPS (Global PositioningSystem,全球定位系统)和其他传感器直接获取和跟踪相机的绝对三维位置信息甚至方向信息。在这种方法中,姿态估计完全依赖于GPS等传感器,在传感器信息相对较差的环境中,精确度不高。基于视觉的方法,又分为基于图像数据库或重建地图的方法以及使用视觉和深度传感器的SLAM系统两种方法。第一种方法将输入图像和离线建立的图像数据库或者重建的点云地图进行匹配,从而得到输入图像的位姿。这种方法往往缺乏可拓展性,缺乏适当的更新机制来应对环境的变化。第二种方法又分为基于视觉的SLAM(SimultaneousLocalization And Mapping)系统和基于RGBD深度传感器的SLAM。视觉SLAM 方法恢复的是相机的相对姿态,尺度是模糊的,此外,对于使用者而言初始化的操作是困难的。另外,由于硬件上的限制,基于RGBD深度传感器的SLAM系统只能用于近距离的室内场景。基于多模态融合的方法,根据不同的环境和任务选择传感器,利用不同传感器获取的不同的特征数据从而能获得更高的定位和跟踪精度。
发明内容
为了克服已有基于图像数据库和重建方法的相机姿态估计方法扩展性不足、单目SLAM初始化困难、尺度漂移以及RGBD深度传感器难以应用在室外场景等问题,本发明提出了一种使用消费级GPS传感器数据和2.5D建筑物模型的面向SLAM的室外单目相机定位与追踪方法,既能够快速初始化,又能提升室外相机定位和环境重建的精度。
本发明解决其技术问题所采用的技术方案是:
一种使用消费级GPS和2.5D建筑物模型的面向SLAM的室外定位方法,所述方法包括如下步骤:
1)描述坐标系及其关系
建立全局坐标系、2.5D地图坐标系和局部的SLAM坐标系,建立各个坐标系之间的关系,描述消费级GPS传感器数据的结构和表示;
2)室外RGBD快速初始化
利用传感器获得的相机姿态和2.5D地图,获得图像的深度图,进而完成 SLAM系统的快速初始化,过程如下:
首先,根据传感器数据和2.5D建筑模型,计算建筑模型上每一点到相机中心的近似距离
(1)
接着,根据深度通道信息,获得图像的深度掩码图。在提取图像中的ORB(Oriented Fast and Rotated BRIEF)关键点后,进一步用深度掩码保留属于建筑物上的ORB关键点和其对应的距离信息;
最后,图像中的二维特征点坐标和距离信息被用于创建3D地图点坐标,从而构建了拥有正确的米制尺度的初始化的SLAM地图,并用于随后的跟踪环节;
3)后端优化
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910939643.5/2.html,转载请声明来源钻瓜专利网。