[发明专利]一种针对弱纹理区域的立体匹配算法有效
申请号: | 201810376408.7 | 申请日: | 2018-04-25 |
公开(公告)号: | CN108596975B | 公开(公告)日: | 2022-03-29 |
发明(设计)人: | 杜娟;沈思昀;冯颖 | 申请(专利权)人: | 华南理工大学 |
主分类号: | G06T7/73 | 分类号: | G06T7/73;G06T7/13 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 王东东 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 针对 纹理 区域 立体 匹配 算法 | ||
本发明公开了一种针对弱纹理区域的立体匹配算法,首先对输入图像进行高斯采样,构造出不同尺度下的待匹配图像对,然后利用canny算法对原始图像进行边缘检测以检测出物体边缘并划分出低纹理区域,针对边缘区域,设定更小的代价聚合窗口,针对低纹理区域,加强相同像素不同尺度间的一致性约束,利用改进的滑动窗口法方法分别计算各尺度下图像像素对匹配代价,利用特征点匹配结果划定视差搜索范围,通过多尺度下的代价聚合函数计算视差范围内的各视差值对应的聚合匹配代价,选择最小代价所对应视差值作为像素视差值,通过遍历原始图像像素得到稠密视差图。本发明针对低纹理区域有较高的匹配精度,能有效减少误匹配。
技术领域
本发明涉及数字图像处理领域,具体涉及一种针对弱纹理区域的立体匹配算法。
背景技术
双目立体视觉是计算机视觉的一个重要研究课题,双目立体视觉通过摄像机模拟人眼构造,通过比较同一场景下通过两个不同角度采集到的的不同图像信息,利用计算机模拟大脑进行处理,获取物体的三维坐标信息。双目立体视觉直接模拟人类观察外界事物的方式,具有成本低、效率高等优点。
双目立体视觉系统主要包括图像采集、摄像机标定、图像校正、立体匹配、三维重建,其中立体匹配是立体视觉中是最重要的环节,决定最后匹配视差图的结果,也决定了最终恢复的三维信息正确性。立体匹配的内容主要是建立两幅二维图像之间的像素对应关系,计算视差,获取视差图像。立体匹配中难以攻克的问题主要有光照影响,遮挡引起的误匹配和所属场景低纹理区域的误匹配。低纹理区域内由于每个像素点的像素值非常接近,匹配时区域间差异不明显,容易导致匹配结果错误。
基于局部的立体匹配包括四个步骤:匹配代价的计算、匹配代价聚合、计算视差、结果优化。常用的代价计算方法包括有基于像素点的匹配代价计算:绝对差absolutedifference(AD),平方差squared differences(SD),截断绝对差等truncated absolutedifference(TAD)等,以及基于区域的匹配代价计算:绝对差和sum of absolutedifference(SAD),平方差和sum of squared differences,hadamard变换法sum ofabsolute transformeddifference(SATD)等)。常用的代价聚合方法包括有基于滤波器的代价聚合方法(bilateral filter,guided image filter,box filter等)以及基于分割树的代价聚合方法等等。
目前大多数对立体匹配算法的改进研究集中于对前两步骤进行改进,但目前并没有鲁棒性非常好的匹配算法提出,大多需要根据图像特点及处理需求设计对应的匹配方法。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种针对弱纹理区域的立体匹配算法。
本发明采用如下技术方案:
一种针对弱纹理区域的立体匹配算法,包括如下步骤:
S1对输入图像进行图像校正,将校正后的图像对进行尺度变换,获得不同尺度下图像对;
S2采用Canny算法检测图像边缘,通过闭运算获得平滑连续的边界并标记边缘位置,边缘内的区域则为弱纹理区域;
S3检测校正后图像对的Harris角点并进行特征点的匹配,确定同一连通域内的视差搜索范围;
S4采用改进的滑动窗口方法计算各尺度图像像素间匹配代价;
S5采用正则化约束下的多尺度的代价聚合函数计算视差搜索范围内的各视差值对应的聚合代价,选择最小聚合代价所对应的视差值作为像素视差值;
S6通过遍历原始图像像素得到稠密视差图。
所述S1中采用高斯金字塔的方法获得不同尺度下图像对。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810376408.7/2.html,转载请声明来源钻瓜专利网。