[发明专利]基于多地图融合的位姿优化方法及位姿优化系统有效
申请号: | 201711200599.3 | 申请日: | 2017-11-24 |
公开(公告)号: | CN107862720B | 公开(公告)日: | 2020-05-22 |
发明(设计)人: | 王行;盛赞;李骊;周晓军;李朔 | 申请(专利权)人: | 北京华捷艾米科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T5/50 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 李明 |
地址: | 100084 北京市海淀区中*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 地图 融合 优化 方法 系统 | ||
本发明公开了一种基于多地图融合的位姿优化方法及系统。方法包括:分别对多个相机的广角镜头进行标定,获得多个相机的广角镜头的标定参数;根据标定参数,对与该标定参数相对应地广角镜头的广角图像进行矫正,获得正常视角图像;将多个相机放置于世界坐标系中的相同坐标位置处并初始化;跟踪并获取每个相机运动时的正常视角图像,计算得到每个相机的关键帧位姿,生成关键帧位姿集合;对关键帧位姿集合中的每一个关键帧位姿进行优化处理,生成优化关键帧位姿集合,并根据优化关键帧位姿集合,生成融合地图。因此,可以使得多个相机的位姿统一到同一坐标系下,以建立相同的地图,从而可以将多个地图进行融合。
技术领域
本发明涉及体感技术应用领域,特别涉及一种基于多地图融合的位姿优化方法和一种基于多地图融合的位姿优化系统。
背景技术
目前,即时定位与地图构建(SLAM,Simultaneous Localization And Mapping)技术,在增强现实(AR,Augment Reality)技术领域中有着重要的地位,单SLAM系统的研究目前已经很多了,未来多SLAM系统的融合将扮演重要的角色,可为多种应用提供服务,如基于软件即服务(Saas,Software-as-a-Service)的SLAM应用将普遍出现在移动端设备上。因此,在这样的环境下,位姿优化将成为多SLAM地图的融合技术中的关键。
国内虚拟现实(VR,Virtual Reality)技术的应用产品近几年已经很广泛,普遍应用在游戏、直播和在线视频娱乐中,VR是纯虚拟技术,用户无法与现实之间进行交互。AR则能实现现实和虚拟的交互,能为用户带来更逼真的体验。SLAM技术在AR领域中的地位举足轻重,它是实现定位(Localization)和建图(Mapping)的技术,其核心点是跟踪和路径优化。单SLAM系统一般硬件采用摄像机和传感器,现有的传感器主要有激光扫描仪和飞行时间(TOF,Time of Flight)摄像头,其中基于TOF的SLAM性能优于激光扫描,然而TOF的缺点是可扫描范围有限,适用于局部建图。基于视觉里程计(VO,Visual Odometry)的SLAM系统的可视范围不受限,应用型比TOF强,由于其累积的误差随着时间增加而增加,所以最重要的问题在于位姿的全局和局部优化。单SLAM系统建图的密度、范围有限,多SLAM则能很好的解决这样的问题,通过地图融合,可实现大范围的地图构建。
但是,多SLAM系统的难点之一是如何将得到的相机姿态统一到同一坐标系下,如此才能建立相同的地图。单个SLAM系统得到的位姿往往是离散的,统一坐标实际是将多个SLAM系统的离散位姿映射都世界坐标下的位置中,因为存在着误差,且加上误差的累积,所以需要利用优化算法对位姿进行优化矫正。
因此,如何设计出一种可以将多SLAM系统中的多地图融合的位姿优化方法成为本领域亟需解决的技术问题。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种基于多地图融合的位姿优化方法和一种基于多地图融合的位姿优化系统。
为了实现上述目的,本发明的第一方面,提供了一种基于多地图融合的位姿优化方法,所述方法包括:
分别对多个相机的广角镜头进行标定,获得所述多个相机的广角镜头的标定参数;
根据所述标定参数,对与该标定参数相对应地广角镜头的广角图像进行矫正,以获得正常视角图像;
将所述多个相机放置于世界坐标系中的相同坐标位置处,并初始化;
跟踪并获取每个所述相机运动时的正常视角图像,计算得到每个所述相机的关键帧位姿,生成关键帧位姿集合,其中,每个所述相机自所述相同坐标位置处独立运动;
对所述关键帧位姿集合中的每一个所述关键帧位姿进行优化处理,生成优化关键帧位姿集合,并根据所述优化关键帧位姿集合,生成融合地图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京华捷艾米科技有限公司,未经北京华捷艾米科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711200599.3/2.html,转载请声明来源钻瓜专利网。