[发明专利]一种基于语义特征的SLAM回环检测方法在审
| 申请号: | 202111570170.X | 申请日: | 2021-12-21 |
| 公开(公告)号: | CN114067128A | 公开(公告)日: | 2022-02-18 |
| 发明(设计)人: | 张晓峰;陈哲;王梅;欧垚君;丁红;陶秦;施正阳;魏东 | 申请(专利权)人: | 南通大学 |
| 主分类号: | G06V10/44 | 分类号: | G06V10/44;G06V10/46;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 张俊俊 |
| 地址: | 226019 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 语义 特征 slam 回环 检测 方法 | ||
本发明公开了一种基于语义特征的SLAM回环检测方法,属于计算机视觉图像技术领域,包括以下步骤:通过RGB‑D相机获取新的图像,并通过YOLOv4目标检测网络模型提取当前图像与图像数据库中其他待匹配图像的语义信息,计算当前图像与图像序列中其他图像的语义特征向量之间的余弦相似度,根据相似度从历史图像中挑选出最接近的K个候选帧,对当前图像和K个候选帧进行几何一致性检验,将满足几何一致性的当前图像作为真正的回环。本发明的有益效果为:采用语义特征可以大大减少光照和视点变化的影响,提高回环检测的准确性以及召回率,同时使用的几何一致性检验又减少了大部分误匹配,且计算量小,需要较低的存储消耗和计算成本,提高了实时性。
技术领域
本发明涉及计算机视觉图像技术领域,尤其涉及一种基于语义特征的SLAM回环检测方法。
背景技术
移动机器人在室内环境下根据视觉传感器数据在定位的同时构建地图,即视觉SLAM(Simultaneous Localization and Mapping,SLAM)技术,是实现移动机器人自主定位的关键。回环检测是视觉SLAM的关键组成部分。在视觉SLAM中,机器人运动时,在没有获得先验环境信息的情况下,可以对周围的环境进行建图。但随着时间推移,机器人会不断累积误差,最终形成轨迹漂移。回环检测的主要作用是帮助机器人实时识别是否回到了曾经到达过的位置。由此可知,回环检测的实质是为了求两幅图像的相似性匹配。传统的回环检测方法一般采用的是词袋模型(Bag of Words,BoW),该方法通过手工的方式提取特征来描述图像,对各帧图像间的相似性进行计算。但是,该方法在复杂环境下实时性较差,面对光照变化,天气变化,季节变换等情况时会出现准确率下降,不能够稳定工作。
近年来,深度学习方法被广泛的用于计算机视觉任务,如图像分类、目标检测并且均取得了不错的成绩。越来越多的研究人员将卷积神经网络应用于回环检测模块,如使用AlexNet网络提取特征,还有使用自编码器(Auto encoder)提取图像特征,上述方法在复杂光照下取得良好的效果,但是这些方法提取的特征维度较高、耗时较长,无法满足闭环检测的实时性要求。
如何解决上述技术问题为本发明面临的课题。
发明内容
为了解决以上技术问题,本发明的目的在于对提供一种基于语义特征的SLAM回环检测方法,通过语义特征帮助机器人判断是否回到之前访问过的地方,提高了回环检测的准确率,减少位姿漂移误差,进一步提升定位的精度,且大大减少了运算量,在实时性方面表现的更加优秀。
本发明是通过以下措施实现的,一种基于语义特征的SLAM回环检测方法,包含以下步骤:
步骤1,机器人在运动过程中,通过RGB-D相机获取室内环境的图像;
步骤2,将相机采集的当前图像输入YOLOv4目标检测网络模型,以获取所述图像的语义信息,对获取语义信息进行处理得到当前图像的语义特征向量;
步骤3,基于当前图像的语义特征向量,计算当前图像与历史图像的相似度,基于所述相似度,从历史图像中选择最接近的前K个帧,作为回环候选帧;
步骤4,对当前图像和K个回环候选帧进行几何一致性检验,将满足几何一致性的当前图像作为真正的回环;
步骤5,将真正的回环加入到历史图像中,通过RGB-D相机获取新的图像,进行下一轮的回环检测过程。
进一步地,所述步骤1中,
机器人在运动的过程通过相机拍摄的图像,将拍摄的新图像i加入到图像数据库,图像数据库为:图像1,图像2,…图像i。
进一步地,所述步骤2中,将相机采集的当前图像输入YOLOv4目标检测网络模型,以获取所述图像的语义信息包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南通大学,未经南通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111570170.X/2.html,转载请声明来源钻瓜专利网。





