[发明专利]一种基于YCbCr颜色空间光场数据的稠密深度重建方法有效
申请号: | 202010766902.1 | 申请日: | 2020-08-03 |
公开(公告)号: | CN111932601B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 邱钧;刘畅;陈平;史立根 | 申请(专利权)人: | 北京信息科技大学;中北大学 |
主分类号: | G06T7/557 | 分类号: | G06T7/557;G06T7/11;G06T7/136;G06T7/90 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉;赵立军 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 ycbcr 颜色 空间 数据 稠密 深度 重建 方法 | ||
本发明公开了一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:步骤1,获取YCbCr颜色空间光场数据;步骤2,在Y通道标记平滑区域;步骤3,在CbCr通道进行语义分割;步骤4,在Y通道进行区域匹配;步骤5,优化匹配视差,并计算场景深度。通过采用本发明提供的方法,能够在四维光场理论下实现高精度的深度重建。
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于YCbCr颜色空间光场数据的稠密深度重建方法。
背景技术
光场包含光线的空间和角度信息,是对场景中光线的辐照度刻画,广泛应用于场景渲染、深度信息获取、计算摄影与三维重构。七维全光函数最早被提出用来形式化描述光场,描述了空间中任意时刻任意波长的光线辐照度信息。Levoy,Gortler等人提出了光场的双平面参数化表示,即四维光场L(x,y,u,v)。基于四维光场的理论,Ng和Levoy等人设计基于微透镜阵列采集系统的手持相机,实现了单次曝光下的四维光场数据采集和重聚焦成像。
由光场数据获取场景深度信息当前有三类方法。基于多视点像素匹配的深度获取方法,基于极线图的深度获取方法和基于聚焦堆栈深度获取方法。光场可以看作一组不同视点下的透视图,基于多视点像素匹配的深度获取方法通过像素匹配获取任意物点在所有视点下的视差信息。基于极线图的深度获取方法计算梯度方向或者尺度变换求极值得到极线图中直线的斜率。基于聚焦堆栈深度获取方法通过清晰度评价和聚焦堆栈的其它特性估计深度。
高精度的深度重建方法可用于光场相机的深度信息获取,以及为三维场景重构提供精确的深度信息。但是,现有技术中缺少高精度的深度重建方法。
发明内容
本发明的目的在于提供一种基于YCbCr颜色空间光场数据的稠密深度重建方法,为基于光场的数字重聚焦和三维场景重构提供高精度的深度信息。
为实现上述目的,本发明提供一种基于YCbCr颜色空间光场数据的稠密深度重建方法,该方法包括以下步骤:
步骤1,获取YCbCr颜色空间光场数据;
步骤2,在Y通道标记平滑区域;
步骤3,在CbCr通道进行语义分割;
步骤4,在Y通道进行区域匹配;
步骤5,优化匹配视差,并计算场景深度。
进一步地,步骤2包括:
步骤21,在Y通道上,计算以待匹配像素点为中心、预设面积的矩形窗口区域内各像素点的像素值的均方差值;
式中,f表示矩形窗口区域内像素点的像素值,良示矩形窗口区域内像素点的像素值的平均值,N表示矩形窗口区域内像素点的个数;
步骤22,比较式(1)计算得到均方差值σ2与设定的平滑区域阈值ξ,σ2<ξ时,则步骤21中的待匹配像素点被判定为平滑区域。
进一步地,步骤3具体包括:
步骤31,在YCbCr颜色空间光场数据的中心视图的CbCr通道通过区域生长二分法进行语义分割,此时场景被分成若干个色度块;
步骤32,遮挡发生在色度块的边缘,提取色度块的边缘,该边缘为边界遮挡区域。
进一步地,步骤31建立下式(2)提供的关于颜色距离和空间结构相关的区域生长能量函数Ek(x,y):
当Ek(x,y)<τ(x,y),表示区域停止增长;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学;中北大学,未经北京信息科技大学;中北大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010766902.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:数据分流系统
- 下一篇:一种由螺旋采样光场数据重建三维物体的方法