[发明专利]基于路标信息与多传感器数据融合的机器人重定位方法在审
| 申请号: | 201910200079.5 | 申请日: | 2019-03-15 |
| 公开(公告)号: | CN110147095A | 公开(公告)日: | 2019-08-20 |
| 发明(设计)人: | 杨爽;曾碧 | 申请(专利权)人: | 广东工业大学 |
| 主分类号: | G05D1/02 | 分类号: | G05D1/02 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
| 地址: | 510006 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | 本发明针对同步即时建图与定位中出现的定位误差问题,提出一种基于路标信息与多传感器数据融合的机器人重定位方法,以达到克服现有机器人在复杂环境中定位技术的缺点与不足的目的。本发明旨在将视觉识别的路标信息融进激光感知的数据中,利用打上了语义标签的路标对应其在地图上的准确位置信息,反推算出机器人在地图上的真实位置,从而修正机器人的定位误差,提高机器人在自主导航过程中定位精度和重定位能力,增强机器人的自我修正位姿的水平。 | ||
| 搜索关键词: | 机器人 路标信息 重定位 多传感器数据融合 定位误差 修正 准确位置信息 定位技术 复杂环境 视觉识别 语义标签 真实位置 自主导航 位姿 感知 路标 推算 激光 | ||
【主权项】:
1.基于路标信息与多传感器数据融合的机器人重定位方法,其特征在于,包括以下步骤:步骤S1:构建地图,并在构建已知地图的过程中同时设置并确定几个特征明显的物体作为系统中的路标,在路标物体的选择和确定路标物体在当前环境的位置要符合本方法的基本原则;步骤S2:利用聚类算法将落在同一路标物体上的激光点聚成一个激光点簇,形成激光数据;步骤S3:通过深度学习和图像匹配的方式对视觉识别的物体产生视觉语义信息;步骤S4:利用标定参数和几何模型,将激光数据和视觉语义信息进行信息融合,产生语义激光数据,给环境中每个路标物体对应的激光簇数据赋予视觉语义标签;步骤S5:基于语义激光数据,构建带有各路标名称的语义地图,并且根据一一对应的路标名称和位置坐标建立关联映射表;步骤S6:当定位出现偏差时,导航过程中利用视觉识别附近路标物体的分类及语义名称;步骤S7:根据路标的语义信息查找映射表中对应坐标;步骤S8:根据路标的坐标信息、激光实时感知数据和IMU记录角度信息利用转换公式反向推算机器人当前实际位置。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910200079.5/,转载请声明来源钻瓜专利网。





