[发明专利]一种基于多模态地图的协同定位方法在审
申请号: | 202111163279.1 | 申请日: | 2021-09-30 |
公开(公告)号: | CN113932814A | 公开(公告)日: | 2022-01-14 |
发明(设计)人: | 陈若琳;颜成钢;许成浩;朱尊杰;孙垚棋;张继勇;李宗鹏 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G01S17/86;G01S17/931 |
代理公司: | 杭州君度专利代理事务所(特殊普通合伙) 33240 | 代理人: | 朱月芬 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 多模态 地图 协同 定位 方法 | ||
本发明公开了一种基于多模态地图的协同定位通过将激光雷达与视觉相机扫描得到的不同环境信息进行融合,构成一份集成了激光几何模态和和视觉纹理模态的多模态地图,以达到无人车在环境中精准的定位与导航的效果。区别于传统的SLAM方法,结合了激光几何模态快速匹配的优势以及视觉纹理mark标记的准确匹配,利用构建出的全新多模态地图,使用组合信息得以更准确地感知周围环境,相较现有方案定位更加精准。
技术领域
本发明涉及移动机器人在封闭室内的定位方法,涉及有基于激光几何模态和视觉纹理模态的移动机器人的协同定位方法。
背景技术
随着科技的进步以及移动机器人研究领域的快速发展,地面无人车(UnmannedGround Vehicle,UGV)在社会生活中起到了越来越重要的作用,同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)也成为了热门研究课题。无人地面车辆是一种可自主行驶或遥控操作,可一次或多次使用,并能携带一定数量载荷的地面机动平台。由于无人地面车辆具有自动操控和高度智能化的特点,往往可以达到有人驾驶车辆难以到达,或对人类来说十分危险的地域,并完成人类难以直接完成的工作而日益受到重视。因此复杂环境中进行精确连续可靠的定位是保证无人车在行动时取得成功的关键性一步。
目前,大多数移动机器人内的导航定位系统都是独立工作的,它们之间交换信息量较少,每个传感器都有着自己独特的工作。在室外环境中,无人车的定位主要采用GPS/惯导融合的方法。但是在室内、桥洞等GPS不可用的环境中,需要采用新的自主方式实现自身的导航定位。在GPS拒止环境下常用的传感器主要包括激光雷达、视觉、UWB等。其中,二维激光雷达在结构特征稀少、点云信息不丰富的空旷环境中,易出现匹配误差大、精度低的问题;视觉对光照的依赖性强,在无光条件下或无纹理区域基本不可用;UWB则需要提前对基站进行标定,使用复杂,而且基站的位置精度对其定位精度有较大的影响。
基于上述问题,将多个传感器信息融合起来,才是实现精确定位的关键。因此以多种传感器获得不同形式的观测,综合考虑激光雷达的快速性和视觉mark的准确匹配,生成不同类型和不同权重的约束,最终共同求解获得定位结果,才能更加细致地感知周围的环境,做出更好、更精准的定位。
发明内容
针对现有技术中存在的不足,本发明提供一种基于多模态地图的协同定位方法。
本发明实现功能:通过将激光雷达与视觉相机扫描得到的不同环境信息进行融合,构成一份集成了激光几何模态和和视觉纹理模态的多模态地图,以达到无人车在环境中精准的定位与导航的效果。
一种基于多模态地图的协同定位方法,步骤如下:
步骤1:通过激光雷达扫描获取场景信息,构建场景几何模态图;
步骤2:在场景中贴上相应的mark标记,通过视觉相机采集多角度的视觉特征,获取每一标记处对应的特征描述子向量集合;
步骤3:在几何模态图的基础上,加入视觉纹理特征信息,构建全局多模态地图。
M为全局多模态地图,由激光几何信息G和视觉纹理信息F集成构建。
步骤4:初始化无人车在多模态地图中的位置,即通过激光雷达获取点云信息来初步估计机器人自身处于场景中的位置;
步骤5:规划导航路径,完成协同定位;
首先依靠雷达进行粗定位匹配,到达目标点附近区域,然后依靠视觉相机,捕捉获取周围的mark标记,根据视觉纹理信息进行精准定位;
步骤(1)具体操作如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111163279.1/2.html,转载请声明来源钻瓜专利网。