[发明专利]一种自由视点视频深度图编码方法及其失真预测方法有效
申请号: | 201310355943.1 | 申请日: | 2013-08-15 |
公开(公告)号: | CN103402097A | 公开(公告)日: | 2013-11-20 |
发明(设计)人: | 金欣;李晨阳;戴琼海 | 申请(专利权)人: | 清华大学深圳研究生院 |
主分类号: | H04N7/26 | 分类号: | H04N7/26;H04N7/32;H04N7/64;H04N13/00 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 江耀纯 |
地址: | 518055 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 自由 视点 视频 深度 编码 方法 及其 失真 预测 | ||
1.一种自由视点视频深度图编码的失真预测方法,其特征在于包括如下步骤:
A1获取两个以上视点立体视频纹理图与深度图;
A2利用当前待编码视点及其相邻待编码视点的纹理图和深度图,采用视点合成算法合成所述当前待编码视点及其相邻待编码视点的中间视点;
A3根据A2步骤的合成结果,记录当前待编码视点深度图中各像素点的合成特征,并生成相应失真预测权重;
A4根据所述各像素点的合成特征和相应失真预测权重,利用像素失真预测模型对当前深度图的编码块中各像素点的失真求和,得到总失真。
2.如权利要求1所述的失真预测方法,其特征在于:所述相邻待编码视点取编码次序上的上一视点,若无上一视点,则取编码次序上的下一视点。
3.如权利要求1所述的失真预测方法,其特征在于:所述像素点包括非显露点、前插值点、加权插值点、前双空洞点和混合类型点,其中:
非显露点的合成特征是,对应的纹理图像素点左右间隔在视点合成结果中均不被显露,其失真预测权重为w1,w1=0;
前插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时作为前景被显示,其失真预测权重为w2,w2=1;
加权插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时被加权求和,其失真预测权重为w3,0≤w3≤1;
前双空洞点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后都为空洞填补区,在左右变换图融合时为前景被显示,其失真预测权重为w4,w4=1;
混合类型点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,合成特征记为所述非显露点、前插值点、加权插值点和前双空洞点中任意两者的特征的混合,两个失真预测权重都被记录。
4.如权利要求3所述的失真预测方法,其特征在于,所述编码像素失真预测模型包括:
非显露点编码像素失真预测模型为:
Dsyn=w1
;
前插值点和加权插值点编码像素失真预测模型为:
Dsyn=|w2·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|和
Dsyn=|w3·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|
;
前双空洞点编码像素失真预测模型为:
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n+1)2|或者
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n-1)2|;
混合类型点,根据混合的两种类型,分别按照所述混合的两种类型的模型计算失真,然后再取均值,作为该像素点的失真;
其中,Dsyn为深度图失真预测,w1、w2、w3和w4为失真预测权重,SD为原始深度图像素点值,S′D为编码后重建深度图像素点值,S′T,n表示当前深度图像素点在重建视点纹理图中对应的像素点的值,S′T,n+1和S′T,n-1分别表示当前深度图像素点在重建视点纹理图中对应像素点的相邻左、右像素点的值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳研究生院,未经清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201310355943.1/1.html,转载请声明来源钻瓜专利网。