[发明专利]深度图提取、判断视频场景切换及深度图边缘优化方法有效
申请号: | 201210405799.3 | 申请日: | 2012-10-23 |
公开(公告)号: | CN102883175A | 公开(公告)日: | 2013-01-16 |
发明(设计)人: | 马荣敏;邢文峰 | 申请(专利权)人: | 青岛海信信芯科技有限公司 |
主分类号: | H04N13/00 | 分类号: | H04N13/00;G06K9/46;G06T5/00 |
代理公司: | 北京中伟智信专利商标代理事务所 11325 | 代理人: | 张岱 |
地址: | 266100 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 提取 判断 视频 场景 切换 边缘 优化 方法 | ||
技术领域
本发明涉及一种视频图像2D转3D中的深度图提取方法,尤其设计一种包括判断视频场景切换及深度图边缘优化方法的深度图提取方法。
背景技术
深度图是指以物体纵向深度值代替灰度图像的灰度级形成的图像。由于其中的每个像素代表了一个相对的深度信息,反映了景物表面的三维坐标信息,所以深度图包含了可以直接利用的3D信息(即较可靠的深度数据)。在2D转3D算法中,深度图的提取与计算是至为重要的关键环节。
在实现本发明过程中,发明人发现现有的深度图提取算法中没有针对电视机刷新频率进行深度图计算的方法,导致最终计算得到的深度图像对转化2D视频序列的观看效果受到影响。
发明内容
为了克服上述的缺陷,本发明提供一种基于电视刷新频率的深度图提取方法。
为达到上述目的,一方面,本发明提供一种深度图提取方法,所述方法至少包括下述步骤:
输入待处理视频帧序列,得到源图像;对源图像进行边缘检测和目标识别,得到目标图像;
根据目标图像判断视频场景是否发生切换;
依据视频场景是否发生切换、目标图像像素点的亮度值在时间和空间上的变化、以及电视刷新频率计算某一像素点的深度值,根据所得深度值计算并提取深度图;
输出深度图结果;其中,
依据目标图像和电视刷新频率计算某一像素点的深度值de p t h等于某位置处该像素点的亮度值在空间上的变化量与此位置处该像素点的亮度值在时间上的变化相除所得值。
另一方面,本发明提供一种判断视频场景切换的方法,所述方法至少包括下述步骤:
输入待处理视频帧序列,得到源图像;
对源图像进行边缘检测和目标识别,得到目标图像;
根据目标图像得到目标对象的亮度值,在连续两帧画面中,相同位置像素点的亮度值不相关的个数超过设定值时判定视频场景发生了切换,否则判定视频场景未切换。
再一方面,本发明提供一种深度图边缘优化方法,所述方法至少包括下述步骤:
对深度图进行边缘检测,得到边缘图,记录所有边缘点的坐标(xd,yd);
输入待处理视频帧序列,对源图像分别进行横向和纵向的1/2下采样,对所得结果进行边缘检测和目标识别,得到目标图像;对目标图像进行1/3下采样,记录新得到的边缘图像,位于目标边界交点的坐标记录为(xe,ye);
对(xd,yd)和(xe,ye)进行逐行逐点比较,如果(xd,yd)与(xe,ye)相同则继续比对下一点;否则,以(xe,ye)为基准,调整(xd,yd)及其邻域的深度值;
对得到的深度图进行平滑滤波,生成最终的深度图。
本发明深度图提取方法将电视刷新频率引入到深度值的计算中,进而再根据所得深度值计算并提取深度图。根据电视不同的刷新频率而采用了不同的像素点跨度来进行深度图的计算,使计算得到的深度图更加准确,让最终渲染出的3D视频图像效果更加理想。
本发明判断视频场景切换的方法利用目标对象的亮度值作判断,有别于现有通过像素值来判断视频场景切换的方法。优点主要为:1.使用目标对象亮度值而非整个源图像的亮度值,减少了计算量;2.计算的是Y分量,而非YUV三个通道的分量和,降低算法复杂程度。令判断更加准确,使用更加方便。
本发明深度图边缘优化方法通过比对深度图和源图像中目标对象的边缘信息来对深度图像的边缘深度值进行修复,对计算得到的与源图像边缘不匹配深度图边缘像素点进行重新校准,并调整其邻域的深度值,使生成的深度图像边缘数据更加准确外,解决了视频图像2D转3D时易出现边缘模糊或重影进而影响观看质量的问题。
附图说明
图1为本发明方法流程示意图。
图2为像素点及其周围像素点的坐标标注示意图。
图3为本发明方法优选实施例流程图。
图4为深度值计算方法优选实施例流程图。
图5为深度图优化方法优选实施例流程图。
具体实施方式
下面结合说明书附图和实施例对本发明做详细描述。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于青岛海信信芯科技有限公司,未经青岛海信信芯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201210405799.3/2.html,转载请声明来源钻瓜专利网。