[发明专利]基于主被动融合的高分辨率深度图获取方法在审

专利信息
申请号: 201610191165.0 申请日: 2016-03-30
公开(公告)号: CN105869167A 公开(公告)日: 2016-08-17
发明(设计)人: 李素梅;刘娇丽;范如;侯春萍 申请(专利权)人: 天津大学
主分类号: G06T7/00 分类号: G06T7/00
代理公司: 天津市北洋有限责任专利代理事务所 12201 代理人: 李素兰
地址: 300072*** 国省代码: 天津;12
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于主被动融合的高分辨率深度图获取方法,首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;进行立体匹配和TOF深度融合,计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视图差。与现有技术相比,本发明的算法具有一定鲁棒性;综合TOF深度相机和彩色立体相机的匹配算法的优势弥补各自算法的不足;能够对现实世界场景以及标准数据集展示出良好的效果,此算法具有较好的性能;该算法将在计算机视觉和机器人应用领域具有非常好的应用前景。
搜索关键词: 基于 被动 融合 高分辨率 深度 获取 方法
【主权项】:
一种基于主被动融合的高分辨率深度图获取方法,其特征在于,该方法以下步骤:步骤(1)、首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,所述稀疏式上采样具体的步骤包括将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;从而,TOF相机获得的深度数据能够和左相机的某个样本点建立联系,实现将TOF深度图的分辨率从144×176提高到了778×1032;所述视差图计算的步骤具体包括计算在左相机‑右相机系统中以TOF相机作为参考的视差值Dt(l,r):<mrow><msub><mi>D</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>l</mi><mo>,</mo><mi>r</mi><mo>)</mo></mrow><mo>=</mo><msubsup><mi>H</mi><mrow><mi>l</mi><mi>r</mi></mrow><mi>l</mi></msubsup><msub><mi>x</mi><mi>l</mi></msub><mo>-</mo><msubsup><mi>H</mi><mrow><mi>l</mi><mi>r</mi></mrow><mi>r</mi></msubsup><msub><mi>x</mi><mi>r</mi></msub></mrow>其中,<mrow><msub><mi>x</mi><mi>r</mi></msub><mo>=</mo><msup><mrow><mo>(</mo><msubsup><mi>H</mi><mrow><mi>t</mi><mi>r</mi></mrow><mi>r</mi></msubsup><mo>)</mo></mrow><mrow><mo>-</mo><mn>1</mn></mrow></msup><msub><mi>D</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>t</mi><mo>,</mo><mi>r</mi><mo>)</mo></mrow><msubsup><mi>H</mi><mrow><mi>t</mi><mi>r</mi></mrow><mi>t</mi></msubsup><msub><mi>x</mi><mi>t</mi></msub></mrow><mrow><msub><mi>x</mi><mi>l</mi></msub><mo>=</mo><msup><mrow><mo>(</mo><msubsup><mi>H</mi><mrow><mi>t</mi><mi>l</mi></mrow><mi>l</mi></msubsup><mo>)</mo></mrow><mrow><mo>-</mo><mn>1</mn></mrow></msup><msub><mi>D</mi><mi>t</mi></msub><mrow><mo>(</mo><mi>t</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow><msubsup><mi>H</mi><mrow><mi>t</mi><mi>l</mi></mrow><mi>t</mi></msubsup><msub><mi>x</mi><mi>t</mi></msub></mrow>分别为右相机‑TOF系统中校准右相机的单应矩阵和左相‑TOF系统中校准左相机的单应矩阵,分别为左相机‑TOF系统中校准TOF相机的单应矩阵、右相机‑TOF系统中校准TOF相机的单应矩阵,Dt(t,r)为右相机‑TOF系统中以TOF相机作为参考的视差图,Dt(t,l)为左相机‑TOF系统中以TOF相机作为参考的视差图;最终,转换到左相机坐标系得到左相机‑右相机系统中以左相机为参考的视差图Dl(l,r);步骤(2)、进行立体匹配和TOF深度融合,包括计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视差图,其中:计算弱纹理区域的视差图包括:利用步骤(1)获得了左、右视差图Dl(l,r)、Dt(l,r),分割得到弱纹理区域,根据弱纹理区域中像素的已知视差,在3D(x,y,d)视差空间中拟合成光滑的视差曲面,然后利用视差曲面的表面插值求取未知像素的视差:d(x,y)=a1+a2·x+a3·y+a4·x2+a5·xy+a6·y2+a7·x3+a8·x2y+a9·xy2+a10·y3其中,d(x,y)表示一个三维视差曲面,a1,…,a10表示系数,x,y为坐标;然后,基于得到了弱纹理区域的视差图,使用Yoon和Kweon的自适应加权算法计算纹理区域的像素视差,计算包括:为给定的纹理区域中一对经过校正后的图像Il,Ir处于中心像素窗内的每个像素赋予权值,像素的初始匹配代价使用绝对误差AD进行计算,通过对(pc,qc)初始代价加权求和得到支持窗口的总代价,再将其归一化处理,公式如下:pc,qc对应的总代价表示为:pi,qi的初始匹配代价表示为:pi,qiωl(pi,pc)加权系数ωl(pi,pc)和ωr(qi,qc)分别表示为:<mrow><msub><mi>&omega;</mi><mi>l</mi></msub><mrow><mo>(</mo><msub><mi>p</mi><mi>i</mi></msub><mo>,</mo><msub><mi>p</mi><mi>c</mi></msub><mo>)</mo></mrow><mo>=</mo><mi>exp</mi><mrow><mo>(</mo><mo>-</mo><mfrac><mrow><msub><mi>d</mi><mi>p</mi></msub><mrow><mo>(</mo><msub><mi>p</mi><mi>i</mi></msub><mo>,</mo><msub><mi>p</mi><mi>c</mi></msub><mo>)</mo></mrow></mrow><msub><mi>&gamma;</mi><mi>p</mi></msub></mfrac><mo>-</mo><mfrac><mrow><msub><mi>d</mi><mi>c</mi></msub><mrow><mo>(</mo><msub><mi>I</mi><mi>c</mi></msub><mo>(</mo><msub><mi>p</mi><mi>i</mi></msub><mo>)</mo><mo>,</mo><msub><mi>I</mi><mi>c</mi></msub><mo>(</mo><msub><mi>p</mi><mi>c</mi></msub><mo>)</mo><mo>)</mo></mrow></mrow><msub><mi>&gamma;</mi><mi>c</mi></msub></mfrac><mo>)</mo></mrow></mrow><mrow><msub><mi>&omega;</mi><mi>r</mi></msub><mrow><mo>(</mo><msub><mi>q</mi><mi>i</mi></msub><mo>,</mo><msub><mi>q</mi><mi>c</mi></msub><mo>)</mo></mrow><mo>=</mo><mi>exp</mi><mrow><mo>(</mo><mo>-</mo><mfrac><mrow><msub><mi>d</mi><mi>p</mi></msub><mrow><mo>(</mo><msub><mi>q</mi><mi>i</mi></msub><mo>,</mo><msub><mi>q</mi><mi>c</mi></msub><mo>)</mo></mrow></mrow><msub><mi>&gamma;</mi><mi>p</mi></msub></mfrac><mo>-</mo><mfrac><mrow><msub><mi>d</mi><mi>c</mi></msub><mrow><mo>(</mo><msub><mi>I</mi><mi>c</mi></msub><mo>(</mo><msub><mi>q</mi><mi>i</mi></msub><mo>)</mo><mo>,</mo><msub><mi>I</mi><mi>c</mi></msub><mo>(</mo><msub><mi>q</mi><mi>c</mi></msub><mo>)</mo><mo>)</mo></mrow></mrow><msub><mi>&gamma;</mi><mi>c</mi></msub></mfrac><mo>)</mo></mrow></mrow>其中,pc,qc分别为左右视图的中心像素,Wl,Wr分别为以pc,qc为中心的支持窗口,pi,qi分别为落在Wl,Wr中的像素;e0(pi,qi)为,Ic表示c的颜色强度,T决定初始匹配代价的上限值,dc(Ic(pi),Ic(pc))表示视图中像素pi,pc在CIELAB颜色空间中的颜色距离,dp(pi,pc)表示pi,pc之间的空间距离,dc(Ic(qi),Ic(qc))表示视图中像素qi,qc在CIELAB颜色空间中的颜色距离,dp(qi,qc)表示qi,qc之间的空间距离;常数γpc为两个参数;计算代价聚合之后,使用WTA(Winner‑Take‑All)方法选择获取纹理区域的视差:<mrow><msub><mi>d</mi><mi>p</mi></msub><mo>=</mo><mi>arg</mi><munder><mrow><mi>m</mi><mi>i</mi><mi>n</mi></mrow><mrow><mi>d</mi><mo>&Element;</mo><msub><mi>S</mi><mi>d</mi></msub></mrow></munder><mi>c</mi><mrow><mo>(</mo><msub><mi>p</mi><mi>c</mi></msub><mo>,</mo><msub><mi>q</mi><mi>c</mi></msub><mo>)</mo></mrow></mrow>其中,d表示pc,qc对应的视差候选,Sd=dmin,…,dmax为所有可能的视差值的集合。有了弱纹理区域和纹理区域的视差,对于其他区域的视差求取,采用两种数据加权的方式进行融合,即:假设由TOF求得的视差值为dt,由立体匹配求得的视差值为ds,则该像素的视差d0应为:d0=ωt·dts·ds其中,ωt为TOF求得的视差值的权重;ωs为立体匹配求得的视差值的权重。<mrow><msub><mi>&omega;</mi><mi>s</mi></msub><mo>=</mo><mfrac><msub><mi>&gamma;</mi><mi>s</mi></msub><mrow><msub><mi>&gamma;</mi><mi>s</mi></msub><mo>+</mo><msub><mi>&gamma;</mi><mi>t</mi></msub></mrow></mfrac></mrow>ωt=1‑ωs
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610191165.0/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top