[发明专利]一种基于视觉模型的深度提取方法有效
申请号: | 201310023799.1 | 申请日: | 2013-01-22 |
公开(公告)号: | CN103093469A | 公开(公告)日: | 2013-05-08 |
发明(设计)人: | 戴琼海;张洋 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T5/00 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张大威 |
地址: | 100084 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 模型 深度 提取 方法 | ||
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于视觉模型的深度提取方法。
背景技术
与观看2D视频相比,观众观看3D视频能产生身临其境的真实感受,因此,3D技术的发展受到越来越多的重视。但是,目前3D视频的制作费用昂贵,致使3D片源不足,有一种解决方案是通过2D视频转换成3D视频。
由于3D视频格式通常采用“视频+深度”的模式,在将2D视频转换成3D视频的过程中,需要进行深度提取,目前现有的深度提取方法是从图片的强度、颜色和纹理信息中提取深度,这种提取方法没有考虑人类的视觉模型,提取的深度信息不够准确。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于视觉模型的深度提取方法。
为了实现本发明的上述目的,本发明提供了一种基于视觉模型的深度提取方法,其包括如下步骤:
第一步:将视频图像的彩色信号转化为灰度信号;
第二步:计算相邻两像素点处于同一深度的概率;
第三步:计算所有像素点的深度值;
第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。
在本发明的一个优选实施例中,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,该HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤:
a:在S1层对视频图像进行滤波处理;
b:在C1层,综合所述S1层的输出进行滤波和归一化操作;
c:在S2层对图像进行滤波处理;
d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。
本发明的基于视觉模型的深度提取方法将视觉模型引入深度提取,使深度计算结果更加准确。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明基于视觉模型的深度提取方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
图1是本发明基于视觉模型的深度提取方法的流程图,从图中可见,该深度提取方法包括如下步骤:
第一步:将视频图像的彩色信号转化为灰度信号;
第二步:计算相邻两像素点处于同一深度的概率;
第三步:计算所有像素点的深度值;
第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。
在本发明的一个优选实施方式中,具体步骤为:
首先,将视频图像的彩色信号转化为灰度信号,对每一个像素点,灰度信号取为I(u,v)=(R(u,v)+G(u,v)+B(u,v))/3,其中,R、G、B为视频图像第u行第v列的像素点为彩色信号时的三通道值。
然后,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,该HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤:
a:在S1层对视频图像进行滤波处理;
b:在C1层,综合所述S1层的输出进行滤波和归一化操作;
c:在S2层对图像进行滤波处理;
d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。
其中,在步骤a中,对θ=0,θ=π/4,θ=π/2,θ=3π/4四个方向在两个角度φ=0和φ=-π/2这8种组合分别用公式f1θ,φ=exp(-(xcosθ+ysinθ)^2+(-xsinθ+ycosθ)^2/10)×cos(π(xcosθ+ysinθ)/2+φ)定义的矩形窗和原图像矩阵I进行二维卷积运算I*f1θ,φ,得到8个矩阵S1θ,φ,该矩形窗f1θ,φ的大小为5*5,中心点的坐标为(0,0)。在本实施方式中,x、y为矩形窗形成的滤波窗口的坐标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310023799.1/2.html,转载请声明来源钻瓜专利网。