[发明专利]基于视觉惯导融合的移动机器人地图构建方法及相关设备有效
申请号: | 202110382654.5 | 申请日: | 2021-04-09 |
公开(公告)号: | CN113091738B | 公开(公告)日: | 2022-02-08 |
发明(设计)人: | 郭俊阳;陈孟元;陈何宝 | 申请(专利权)人: | 安徽工程大学 |
主分类号: | G01C21/16 | 分类号: | G01C21/16;G01C21/20;G06F17/15;G06F17/16 |
代理公司: | 芜湖思诚知识产权代理有限公司 34138 | 代理人: | 项磊 |
地址: | 241000 安徽省*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视觉 融合 移动 机器人 地图 构建 方法 相关 设备 | ||
1.基于视觉惯导融合的移动机器人地图构建方法,其特征在于,所述方法包括:
步骤S1,根据视觉姿态和惯性姿态融合状态确定融合达成度,完成视觉初始化、视觉惯性校准对齐以及惯性初始化;
步骤S2,构建情形评估函数实时分析姿态趋势;
步骤S3,确定融合状态局部期望值并输出该状态:通过评估函数值与阈值比较判断此时机器人的运动状态观测数据是否具有高确定性,同时增加时间阈值设定双重约束评估状态以确定是否终止视觉惯性联合初始化并输出当前状态;
步骤S4,根据公共地图点稀疏程度将关键帧分为强共视关键帧和弱共视关键帧;
步骤S5,根据分级结果将强共视关键帧送入滑动窗口并利用帧间位姿密集连续性优化强共视关键帧,借助观测地图点的联系对自感知地图进行绘制和校正。
2.根据权利要求1所述的基于视觉惯导融合的移动机器人地图构建方法,其特征在于,所述步骤S1中,IMU测量值由真实值、随机游走偏差和白噪声三个部分组成,加速度计仍受到重力加速度的影响,将IMU运动状态变量利用中值法离散化以方便相机跟IMU进行状态融合,离散化的运动状态变量算式如下:
ppre、vpre和qpre分别代表IMU位置、速度和姿态四元数的初始值;和分别代表第i和i+1个时刻下IMU在世界坐标系下的加速度;和分别代表第i和i+1个时刻下IMU在世界坐标系下的角速度;为内积的运算法则;和表示在第i和i+1个时刻的时间段里IMU加速度偏差和角速度偏差的变化量;是从IMU坐标系转移到世界坐标系下的旋转矩阵,Δt为相邻时刻的间隔时间;
上述运动状态变量算式能计算出在i+1个时刻下的计算结果为zi+1,z1为初始值,在第一次计算时直接利用相机采集的信息确定,之后的计算利用IMU上一时刻的信息计算得到当前时刻的观测数据。
3.根据权利要求2所述的基于视觉惯导融合的移动机器人地图构建方法,其特征在于,所述步骤S2中,用ZF表示机器人的运动状态观测数据,则存在ZF={z1,z2,...,zn},zi为ZF中具体的第i个时刻下的观测数据;若机器人的运动状态观测数据ZF={z1,z2,...,zn}服从概率分布f(ZF;Y),其中Y是需要求解的机器人状态变量目标函数,得到的状态估计函数如下式:
构建机器人状态变量目标函数Y来度量机器人观测状态数据并估计观测的位姿随时间变化的趋向的置信度,机器人运动状态置信度表达如下式:
其中Ω(ZF;Y)为机器人运动状态观测数据ZF的置信度,E(·)为计算机器人运动状态观测数据ZF的期望,S(·)为计算机器人运动状态观测数据ZF的标准差,Var(·)为计算机器人运动状态观测数据ZF的方差,通过机器人运动状态置信度确定融合达成度。
4.根据权利要求3所述的基于视觉惯导融合的移动机器人地图构建方法,其特征在于,所述步骤S2中,定义视觉惯性观测样本情形评估函数如下式:
其中,fλ(ZF)为机器人运动状态观测数据情形评估函数,Ω(ZF;Y)是从关于评估机器人运动状态观测数据ZF的位置、速度、旋转四元数和偏差这些相关状态获得的信息矩阵置信度,为机器人运动状态中某个关键帧F观测数据ZF对应的协方差矩阵,F为运行过程中某个图像帧,Δτ是与图像帧相关的图像信息矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽工程大学,未经安徽工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110382654.5/1.html,转载请声明来源钻瓜专利网。