[发明专利]一种基于深度相机和惯性融合的移动机器人定位方法有效
申请号: | 202211119147.3 | 申请日: | 2022-09-13 |
公开(公告)号: | CN115371665B | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 王常虹;赵新洋;王振桓;窦赫暄;刘博 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G01C21/00 | 分类号: | G01C21/00;G01C21/16;G01C21/20 |
代理公司: | 哈尔滨市松花江联合专利商标代理有限公司 23213 | 代理人: | 岳昕 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 相机 惯性 融合 移动 机器人 定位 方法 | ||
一种基于深度相机和惯性融合的移动机器人定位方法,它属于视觉惯性导航技术领域。本发明解决了由于受到移动机器人运动方式和环境的影响,导致当前视觉SLAM系统容易出现定位失败或获得的定位效果差的问题。本发明利用了深度相机的深度不确定性模型和多视图三角化结合的方法,能够自适应地完成不同距离特征点的深度估计。并且在此基础上,提出了特征点动态分级管理方法,该方法结合跟踪次数和重投影误差动态地进行特征点分类并去除离群点。通过构建IMU预积分先验误差模型,平面运动约束,特征点深度约束以及3D‑2D特征点重投影误差模型,利用多种约束联合实现移动机器人位姿的估计。本发明方法可以应用于视觉惯性导航技术领域。
技术领域
本发明属于视觉惯性导航技术领域,具体涉及一种基于深度相机和惯性融合的移动机器人定位方法。
背景技术
近年来,随着计算机视觉的高速发展,基于视觉的同时定位与环境地图构建(简称视觉SLAM)技术在移动机器人领域已经得到了广泛应用。视觉SLAM技术无需依赖外界信号,能够通过相机感知环境信息实现地图构建从而估计自身的位姿变化。然而,在机器人纯旋转或急速运动的场景中,由于相机的帧率限制,光照的剧烈变化,常发生特征点跟踪失败导致SLAM失效的情况,从而无法得到移动机器人的定位信息。此外,由于移动机器人本身主要为平面运动,若采用单目SLAM方法,系统进行特征点深度计算时会因视差不足而产生较大的深度估计误差,严重影响定位效果。因此,单一的视觉SLAM算法会因其自身传感器的限制不可避免地有各方面的缺陷,这一现象在应用于复杂场景时尤为明显。
综上所述,由于移动机器人上受到机器人运动方式和环境影响,会导致当前视觉SLAM系统定位失败或获得的定位效果差的问题,因而,采用多传感器融合的方法,充分利用各传感器间测量信息的约束以及机器人的运动学约束来提高系统的位姿估计精度和鲁棒性是当前最佳的应用方案。
发明内容
本发明的目的是为解决由于受到移动机器人运动方式和环境的影响,导致当前视觉SLAM系统容易出现定位失败或获得的定位效果差的问题,而提出的一种基于深度相机和惯性融合的移动机器人定位方法。
本发明为解决上述技术问题所采取的技术方案是:
一种基于深度相机和惯性融合的移动机器人定位方法,所述方法具体包括以下步骤:
步骤1、读取当前来自深度相机的单目RGB图像,深度图像和IMU测量序列,再对单目RGB图像,深度图像和IMU测量序列进行时间同步;
所述步骤1的具体过程为:
以单目RGB图像的时间为基准,获得时间戳位于前一帧单目RGB图像到当前帧单目RGB图像时间内的IMU测量序列集合,在匹配深度图像时,若深度图像与当前帧单目RGB图像的时间相差在t0以内,则将当前帧单目RGB图像、获得的IMU测量序列集合以及深度图像打包成数据集合,并以深度惯性模式进行处理,即继续执行步骤2;否则,若深度图像与当前帧单目RGB图像的时间相差不小于t0,则去除当前的深度图像,并以单目惯性模式进行处理;
步骤2、对前一帧单目RGB图像和当前帧单目RGB图像进行下采样,获得下采样后的图像;再追踪前一帧下采样后图像的特征点在当前帧下采样后图像上的位置,获得各个特征点对;
步骤3、建立深度相机深度测量误差模型;
步骤4、将当前帧单目RGB图像作为滑动窗口的最后一帧,将滑窗内与当前帧单目RGB图像ck具有最大视差的关键帧记为c0,计算关键帧c0与当前帧ck之间的平移和旋转初值其中,为关键帧c0与当前帧之间的平移初值,为关键帧c0与当前帧之间的旋转初值;
根据得到的平移和旋转初值得到关键帧c0与当前帧ck间的位姿估计结果
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211119147.3/2.html,转载请声明来源钻瓜专利网。