[发明专利]一种基于卷积神经网络的室内移动机器人视觉定位方法在审
申请号: | 202110361017.X | 申请日: | 2021-04-02 |
公开(公告)号: | CN113129373A | 公开(公告)日: | 2021-07-16 |
发明(设计)人: | 吴乐天;王从庆 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G01C21/00;G01C21/20;G06K9/62;G06N3/04;G06N3/08;G06T5/00;G06T7/55 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 柏尚春 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 室内 移动 机器人 视觉 定位 方法 | ||
1.一种基于卷积神经网络的室内移动机器人视觉定位方法,其特征在于,包括以下步骤:
(1)机器人平台搭载有前视双目相机,所述双目相机每秒采集n帧图像;机载计算机开启线程,以n Hz的频率运行基于特征点法的视觉里程计;
假设k时刻获取双目相机中左边相机对应的图像和右边相机对应的图像将与作为卷积神经网络的输入,卷积神经网络输出提取特征点后的图像与将与作为基于特征点法的视觉里程计的输入,视觉里程计输出当前双目图像中图像相对于地图中参考帧的左边相机图像的位姿变换矩阵Tk,r;
若上述基于特征点法的视觉里程计跟踪失败,则进入步骤(2)进行重定位,采用基于目标检测和相似度检测的方法确定图像位姿;否则,跳过步骤(2),直接进入步骤(3);
(2)假设k时刻获取了提取特征点后的图像与左边图像作为目标检测的输入,目标检测输出的特征向量v;v作为相似度检测的输入,相似度检测输出与相似度最高的参考帧的左边相机图像将与作为运动估计的输入,运动估计的输出是与的位姿变换矩阵Tk,r;
(3)机载计算机将当前双目图像中左边相机图像的位姿变换矩阵Tk,r用于构建实现定位的局部地图,并得到机器人的实时位姿Tk,w;将Tk,w作为位姿信息通过串口发送给控制系统中的控制单元,对机器人进行位置控制。
2.根据权利要求1所述的基于卷积神经网络的室内移动机器人视觉定位方法,其特征在于,步骤(1)中,基于VGG卷积神经网络提取特征点,选取VGG的最后一个卷积层作为特征提取的输出,再经过Softmax层,输出图像上每个像素点是角点的概率;训练该神经网络的数据集拟采用自己构造的数据集,该数据集拟使用基于Opencv自动生成的在不同像素亮度下的各类有规则的几何形状,这些图像的角点位置已知,且在不同像素亮度下都有相应的图像。
3.根据权利要求1或2所述的基于卷积神经网络的室内移动机器人视觉定位方法,其特征在于,采用卷积神经网络提取特征点的具体步骤如下:
(1.1.1)假设双目相机极线水平,首先获取双目相机中左边相机对应的图像和右边相机对应的图像并根据相机参数对与进行畸变校正,获得矫正后的图像与
(1.1.2)把与作为神经网络的输入,神经网络的输出是左边图像和右边图像每个像素点是角点的概率;
(1.1.3)采取非极大值抑制算法,选取局部范围内概率最大的点作为角点,使角点均匀化;
(1.1.4)计算左图图像角点和左图图像角点的描述子,得到左图特征点与右图特征点
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110361017.X/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种用于智能手表的北斗卫星导航天线
- 下一篇:一种钛酸钡粉体制备方法