[发明专利]基于形心特征点与邻域灰度互相关性的立体视觉定位方法在审
申请号: | 201611110363.6 | 申请日: | 2016-12-07 |
公开(公告)号: | CN108171753A | 公开(公告)日: | 2018-06-15 |
发明(设计)人: | 覃争鸣;陈墩金;杨旭 | 申请(专利权)人: | 广州映博智能科技有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/33;G06T7/11;G06T7/194;G06T7/136 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 510665 广东省广州市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 形心 邻域灰度 特征点 立体视觉定位 匹配点 三维坐标信息 特征点匹配 范围约束 获取目标 极线约束 立体匹配 目标匹配 匹配算法 区域定位 双目相机 特征匹配 图像采集 候选点 标定 视差 图像 | ||
本发明公开了一种基于形心特征点与邻域灰度互相关性的立体视觉定位方法,包括:S1,对双目相机进行标定并进行图像采集;S2,对图像进行处理及区域定位;S3,对左右图进行立体匹配;S4,获取目标物体的三维坐标信息。本发明方案利用形心特征点与邻域灰度互相关性相结合的匹配算法,通过由粗到精实现目标匹配,在形心特征点匹配过程中加以极线约束和视差范围约束,解决了特征匹配在寻找对应匹配点时很可能存在多个候选点或匹配点不存在的问题。
技术领域
本发明属于机器人视觉定位领域,涉及一种基于形心特征点与邻域灰度互相关性的立体视觉定位方法。
背景技术
智能机器人可通过自身携带的传感器有效获取环境和自身位姿的信息,同时完成环境中障碍物和目标的检测,并且自主规划从起始位置运动到目标位置的路径,从而实现对目标物体进行操作。其本身具有完备的感知、分析、决策和执行等模块,可以像人类一样独立地在环境中从事生产活动。
常用的机器人三维目标检测方法是双目立体视觉方法,其主要有两台摄像机组成。双目摄像机各自的内外参数分别进行标定,然后再利用二者之间的相对位置便可以完成立体视觉校正,在此基础上即可计算匹配点的三维坐标。双目立体视觉方法的准确性依赖于立体视觉匹配技术,立体视觉匹配是指根据对图像中的纹理特征进行提取,建立纹理特征间的对应关系,将同一个空间点在两幅图像中的投影点对应起来。其得到的视差图能够恢复出场景的三维轮廓,因此可根据距离远近判断出场景中障碍物的区域。
传统的匹配方法有基于区域匹配和基于特征匹配。基于区域匹配是以窗口内灰度分布的相似性进行判别图像对吻合程度,匹配计算量大,实时性差;基于特征的匹配是根据目标的特征点,边缘形状等特征进行匹配,具有匹配速度快,匹配精度高,但是如图1所示,特征匹配在寻找对应匹配点时,左图像中的一个特征很可能对应右图像中的多个候选点,这是因为在一个连续的区域内,局部图像内容相似度很高,容易出现误匹配。
发明内容
本发明目的在于提供一种基于形心特征点与邻域灰度互相关性的立体视觉定位方法,利用形心特征点与邻域灰度互相关性相结合的匹配算法,通过由粗到精实现目标匹配,在形心特征点匹配过程中加以极线约束和视差范围约束。有效地解决了特征匹配在寻找对应匹配点时很可能存在多个候选点或匹配点不存在的问题。
为解决上述技术问题,本发明采用如下的技术方案:一种基于形心特征点与邻域灰度互相关性的立体视觉定位方法,所述方法包括:S1,对双目相机进行标定并进行图像采集;S2,对图像进行处理及区域定位;S3,对左右图进行立体匹配;S4,获取目标物体的三维坐标信息。
进一步地,所述步骤S1中,采用双目摄像机对目标物体进行图像采集。
进一步地,所述步骤S2中,包括图像二值化、膨胀腐蚀、区域定位操作。
进一步地,所述步骤S3中,采用形心特征点与邻域灰度互相关性相结合的匹配算法。
本发明与现有技术相比具有以下的有益效果:
本发明方案利用形心特征点与邻域灰度互相关性相结合的匹配算法,通过由粗到精实现目标匹配,在形心特征点匹配过程中加以极线约束和视差范围约束,解决了特征匹配在寻找对应匹配点时很可能存在多个候选点或匹配点不存在的问题。
附图说明
图1是双目视差范围内多候选匹配过程的示意图。
图2是本发明实施例的基于形心特征点与邻域灰度互相关性的立体视觉定位方法的流程图。
图3是本发明实施例中双目摄像机立体匹配的示意图。
具体实施方式
下面结合附图及具体实施例对本发明进行更加详细与完整的说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州映博智能科技有限公司,未经广州映博智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611110363.6/2.html,转载请声明来源钻瓜专利网。