[发明专利]一种基于视觉模型的深度提取方法有效
申请号: | 201310023799.1 | 申请日: | 2013-01-22 |
公开(公告)号: | CN103093469A | 公开(公告)日: | 2013-05-08 |
发明(设计)人: | 戴琼海;张洋 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T5/00 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张大威 |
地址: | 100084 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 模型 深度 提取 方法 | ||
1.一种基于视觉模型的深度提取方法,其特征在于,包括如下步骤:
第一步:将视频图像的彩色信号转化为灰度信号;
第二步:计算相邻两像素点处于同一深度的概率;
第三步:计算所有像素点的深度值;
第四步:对计算的所有像素点的深度值进行滤波平滑以及归一化处理。
2.如权利要求1所述的基于视觉模型的深度提取方法,其特征在于,将所述视频图像的彩色信号转化为灰度信号的方法为:将视频图像的每一个像素点的灰度信号取为I(u,v)=(R(u,v)+G(u,v)+B(u,v))/3,其中,R、G、B为视频图像第u行第v列的像素点为彩色信号时的三通道值。
3.如权利要求1所述的基于视觉模型的深度提取方法,其特征在于,根据HMAX视觉模型计算相邻两像素点处于同一深度的概率,所述HMAX视觉模型计算相邻两像素点处于同一深度的概率包括如下步骤:
a:在S1层对视频图像进行滤波处理;
b:在C1层,综合所述S1层的输出进行滤波和归一化操作;
c:在S2层对图像进行滤波处理;
d:在C2层,综合所述S2层的输出并进行滤波和归一化操作。
4.如权利要求3所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤a中,对视频图像进行滤波处理的方法为:对θ=0,θ=π/4,θ=π/2,θ=3π/4四个方向在两个角度φ=0和φ=-π/2分别用公式f1θ,φ=exp(-(xcos θ+ysin θ)^2+(-xsin θ+ycos θ)^2/10)×cos(π(xcosθ+ysin θ)/2+φ)定义的矩形窗和原图像矩阵进行二维卷积运算I*f1θ,φ,得到8个矩阵S1θ,φ,所述矩形窗f1θ,φ的大小为5*5,中心点的坐标为(0,0)。
5.如权利要求3或4所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤b中,进行滤波和归一化操作的方法为:首先,分别对步骤a中四个方向的两个角度的结果进行平方加权组合,公式为g1θ=sqrt(S1θ,0+S1θ,-π/2),然后,用公式f2=g2(exp(-(x^2+y^2)/10)/10-exp(-(x^2+y^2)/5)/5)定义的矩形窗和矩阵g1θ分别进行二维卷积运算g1θ*f2,滤波后得到4个矩阵C1θ,其中当x>0时,g2(x)=x;当x≤0时,g2(x)=0,f2选取大小为15*15,中心点的坐标为(0,0)。
6.如权利要求3所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤c中,对图像进行滤波处理的方法为:分别对θ=0,θ=π/4,θ=π/2,θ=3π/4四个方向在两个角度φ=-π/4,φ=-3π/4用公式f3θ,φ=exp(-(xcosθ+ysinθ)^2+(-xsinθ+ycosθ)^2/10)×cos(π(xcosθ+ysin θ)/2+φ)定义的矩形窗和步骤b处理后的图像矩阵C1θ分别进行二维卷积运算C1θ*f3θ,φ,得到8个矩阵S2θ,φ,所述矩形窗f3θ,φ的大小为5*5,中心点的坐标为(0,0)。
7.如权利要求3或6所述的基于视觉模型的深度提取方法,其特征在于,在所述步骤d中,进行滤波的方法为:首先,分别对步骤c中四个方向的两个角度的结果进行平方加权组合,公式为g3θ=sqrt(S2θ,0+S2θ,π/2),然后,用公式f4=g4(exp(-(x^2+y^2)/10)/10-exp(-(x^2+y^2)/5)/5)定义的矩形窗和矩阵g1θ分别进行二维卷积运算g3θ*f4进行滤波,得到4个矩阵C2θ。其中当x>0时,g4(x)=x;当x≤0时,g4(x)=0,f4选取大小为15*15,中心点的坐标为(0,0)。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310023799.1/1.html,转载请声明来源钻瓜专利网。