[发明专利]一种基于无共视区域的多双目相机运动标定方法在审
申请号: | 201910472043.2 | 申请日: | 2019-05-31 |
公开(公告)号: | CN110189382A | 公开(公告)日: | 2019-08-30 |
发明(设计)人: | 李珍珍;徐成龙;吴成东 | 申请(专利权)人: | 东北大学 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/73;G06T7/246;G06T5/00 |
代理公司: | 大连东方专利代理有限责任公司 21212 | 代理人: | 姜威威;李洪福 |
地址: | 110819 辽宁*** | 国省代码: | 辽宁;21 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 双目相机 标定 视觉 控制计算机 移动机器人 变换矩阵 标定结果 畸变系数 检测结果 视点计算 视觉测量 相机平面 转换关系 标定板 鲁棒性 优化 相机 局限 灵活 | ||
本发明公开了一种基于无共视区域的多双目相机运动标定方法,涉及移动机器人视觉SLAM领域。本发明装置包括两个双目相机、相机平面标定板和控制计算机。本发明方法分为三部分,首先利用张正友标定法分别获取两个待测相机的内外参数以及畸变系数,然后根据双目相机运动后看到的共视点计算双目相机转换关系,最后利用图优化理论将变换矩阵优化最终得到高精度的标定结果。本发明不但可以用于视觉SLAM领域的多双目相机的标定计算,还可以用于其他视觉测量领域,而且不局限于双目相机的个数,具有装置简单、使用灵活方便、鲁棒性好,检测结果准确可靠、使用范围广泛的优点。
技术领域
本发明涉及移动机器人视觉SLAM(Simultaneous Localization and Mapping,同时定位与建图)领域,尤其涉及一种基于无共视区域的多双目相机运动标定方法,是一种融合相机标定与视觉SLAM的方法。
背景技术
相机参数的标定在视觉测量、图像配准、三维重建和视觉SLAM等计算机视觉应用中都是非常关键的环节,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型,这些几何模型参数就是相机参数。在大多数条件下这些参数必须通过实验与计算才能得到,这个求解参数的过程就称之为相机标定(或摄像机标定),标定结果的好坏直接影响相机传感器工作产生结果的准确性,进而会影响下一步的工作。因此,做好相机的标定工作是至关重要的,提高相机的标定精度也是一项很重要的科研工作。
在视觉SLAM(这里以双目视觉为例)领域,首先第一步就是要标定我们是用的相机传感器,多相机系统的标定需要标定几个参数:一是相机各自的内外参数,二是相机各自的畸变系数,三是相机之间的变换关系。对于有共视区域的多目相机标定实现容易,而对于无共视区域的多相机系统实现复杂,且精度较低。无共视多相机系统传统标定方法有两种,一方面可以增加一个辅助相机,从而使得在每两个相机视场中同时检测到标定板,根据共视求相机之间的变换关系;另一方面可以利用能够精准测出相机的运动的装置,获取相机之间的精确相对位置关系。这两种方法有以下缺点:(1)方法一中需要一个辅助设备,而且得到的标定结果不够精确。(2)方法二中需要额外的精确测量设备,操作复杂,非常不方便。(3)不能实现在线标定。本文结合双目视觉里程计的内容发明了一种多双目相机运动标定方法,装置简单,标定正确率高。
发明内容
为了解决无共视区域的双目相机标定结果不准确,需要辅助设备以及需要额外的精确测量设备,操作复杂,非常不方便的问题,本发明公开了一种基于无共视区域的多双目相机运动标定方法,该方法包括如下步骤:
S1:获取标定板图像
将标定板放入双目相机Ⅰ和双目相机Ⅱ的各自的视场中,所述双目相机Ⅰ和双目相机Ⅱ在无共视区域内运动,所述双目相机Ⅰ和双目相机Ⅱ分别对标定板进行多次拍摄,每次拍摄时双目相机Ⅰ和双目相机Ⅱ与标定板的相对位置各不相同,分别获得双目相机Ⅰ拍摄的一组标定板图像和双目相机Ⅱ拍摄的另一组标定板图像;
S2:提取标定板图像中的角点特征点
使用Harris角点提取算法提取双目相机Ⅰ拍摄的一组标定板图像的特征点和双目相机Ⅱ拍摄的另一组标定板图像的特征点;
S3:求双目相机内外参数
双目相机Ⅰ拍摄的一组标定板图像的特征点和双目相机Ⅱ拍摄的另一组标定板图像的特征点分别与已知的世界坐标带入相机模型利用张正友标定法求解、获取双目相机Ⅰ的内外参数和双目相机Ⅱ的内外参数;
S4:双目相机畸变校正
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东北大学,未经东北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910472043.2/2.html,转载请声明来源钻瓜专利网。