[发明专利]基于主被动融合的高分辨率深度图获取方法在审
申请号: | 201610191165.0 | 申请日: | 2016-03-30 |
公开(公告)号: | CN105869167A | 公开(公告)日: | 2016-08-17 |
发明(设计)人: | 李素梅;刘娇丽;范如;侯春萍 | 申请(专利权)人: | 天津大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李素兰 |
地址: | 300072*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于主被动融合的高分辨率深度图获取方法,首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;进行立体匹配和TOF深度融合,计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视图差。与现有技术相比,本发明的算法具有一定鲁棒性;综合TOF深度相机和彩色立体相机的匹配算法的优势弥补各自算法的不足;能够对现实世界场景以及标准数据集展示出良好的效果,此算法具有较好的性能;该算法将在计算机视觉和机器人应用领域具有非常好的应用前景。 | ||
搜索关键词: | 基于 被动 融合 高分辨率 深度 获取 方法 | ||
【主权项】:
一种基于主被动融合的高分辨率深度图获取方法,其特征在于,该方法以下步骤:步骤(1)、首先对TOF低分辨率深度图进行稀疏式上采样和视差图计算,所述稀疏式上采样具体的步骤包括将TOF相机产生的低分辨率深度图映射到3D场景的世界坐标系,再将三维点投影到与左彩色相机或右彩色相机坐标系形成TOF视差点阵;从而,TOF相机获得的深度数据能够和左相机的某个样本点建立联系,实现将TOF深度图的分辨率从144×176提高到了778×1032;所述视差图计算的步骤具体包括计算在左相机‑右相机系统中以TOF相机作为参考的视差值Dt(l,r):![]()
其中,![]()
![]()
和
分别为右相机‑TOF系统中校准右相机的单应矩阵和左相‑TOF系统中校准左相机的单应矩阵,
和
分别为左相机‑TOF系统中校准TOF相机的单应矩阵、右相机‑TOF系统中校准TOF相机的单应矩阵,Dt(t,r)为右相机‑TOF系统中以TOF相机作为参考的视差图,Dt(t,l)为左相机‑TOF系统中以TOF相机作为参考的视差图;最终,转换到左相机坐标系得到左相机‑右相机系统中以左相机为参考的视差图Dl(l,r);步骤(2)、进行立体匹配和TOF深度融合,包括计算得到弱纹理区域的视差图、纹理区域的视差图和其他区域的视差图,其中:计算弱纹理区域的视差图包括:利用步骤(1)获得了左、右视差图Dl(l,r)、Dt(l,r),分割得到弱纹理区域,根据弱纹理区域中像素的已知视差,在3D(x,y,d)视差空间中拟合成光滑的视差曲面,然后利用视差曲面的表面插值求取未知像素的视差:d(x,y)=a1+a2·x+a3·y+a4·x2+a5·xy+a6·y2+a7·x3+a8·x2y+a9·xy2+a10·y3其中,d(x,y)表示一个三维视差曲面,a1,…,a10表示系数,x,y为坐标;然后,基于得到了弱纹理区域的视差图,使用Yoon和Kweon的自适应加权算法计算纹理区域的像素视差,计算包括:为给定的纹理区域中一对经过校正后的图像Il,Ir处于中心像素窗内的每个像素赋予权值,像素的初始匹配代价使用绝对误差AD进行计算,通过对(pc,qc)初始代价加权求和得到支持窗口的总代价,再将其归一化处理,公式如下:pc,qc对应的总代价表示为:
pi,qi的初始匹配代价表示为:
pi,qiωl(pi,pc)加权系数ωl(pi,pc)和ωr(qi,qc)分别表示为:![]()
![]()
其中,pc,qc分别为左右视图的中心像素,Wl,Wr分别为以pc,qc为中心的支持窗口,pi,qi分别为落在Wl,Wr中的像素;e0(pi,qi)为,Ic表示c的颜色强度,T决定初始匹配代价的上限值,dc(Ic(pi),Ic(pc))表示视图中像素pi,pc在CIELAB颜色空间中的颜色距离,dp(pi,pc)表示pi,pc之间的空间距离,dc(Ic(qi),Ic(qc))表示视图中像素qi,qc在CIELAB颜色空间中的颜色距离,dp(qi,qc)表示qi,qc之间的空间距离;常数γp,γc为两个参数;计算代价聚合之后,使用WTA(Winner‑Take‑All)方法选择获取纹理区域的视差:![]()
其中,d表示pc,qc对应的视差候选,Sd=dmin,…,dmax为所有可能的视差值的集合。有了弱纹理区域和纹理区域的视差,对于其他区域的视差求取,采用两种数据加权的方式进行融合,即:假设由TOF求得的视差值为dt,由立体匹配求得的视差值为ds,则该像素的视差d0应为:d0=ωt·dt+ωs·ds其中,ωt为TOF求得的视差值的权重;ωs为立体匹配求得的视差值的权重。![]()
ωt=1‑ωs。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610191165.0/,转载请声明来源钻瓜专利网。
- 上一篇:心血管科专用听诊器
- 下一篇:医用数字摄像系统立柱组件