[发明专利]空间相关的全景数据压缩方法无效
| 申请号: | 200910081023.9 | 申请日: | 2009-03-27 |
| 公开(公告)号: | CN101521823A | 公开(公告)日: | 2009-09-02 |
| 发明(设计)人: | 周忠;吴威;陈珂;牛犇;李艳丽;赵沁平 | 申请(专利权)人: | 北京航空航天大学 |
| 主分类号: | H04N7/36 | 分类号: | H04N7/36;H04N7/26 |
| 代理公司: | 北京科迪生专利代理有限责任公司 | 代理人: | 成金玉;卢 纪 |
| 地址: | 100083*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 空间 相关 全景 数据压缩 方法 | ||
1.一种空间相关的全景数据压缩方法,其特征在于步骤如下:
(1)获取预测图像相对于参考图像的相机外参数,所述相机外参数包括相机的旋转矩阵R和平移量T;
(2)完成步骤(1)以后,获取参考图像和预测图像的深度信息,即图像中每一个像素点的深度值;
(3)根据步骤(2)的参考图像和预测图像的深度信息,获取参考图像和预测图像的场景点;
(4)根据步骤(1)获取的相机外参数,利用空间相关性对步骤(3)获取的参考图像和预测图像的场景点进行融合,得到预测图像新增加的场景点;
所述步骤(4)中根据相机外参数,利用空间相关性对参考图像和预测图像的场景点进行融合,得到预测图像相对于参考图像新增加的场景点的方法为:对预测图像的每一个场景点进行判断,如果存在参考图像的场景点与所述预测图像的场景点满足下述公式(b),则该预测图像的场景点不是新增加的场景点;如果不存在参考图像的场景点与该所述预测图像的场景点满足下述公式(b),则该预测图像的场景点是新增加的场景点,
X2=R(X1-T) (b)
其中,X1是参考图像的场景点相对于参考图像中心的坐标,X2是预测图像的场景点相对于预测图像中心的坐标,R和T是预测图像相对于参考图像的相机外参数的旋转矩阵和平移量;
(5)完成步骤(4)以后,对参考图像本身的颜色信息和深度信息以及预测图像新增加的场景点进行编码,从而完成空间相关的全景数据压缩。
2.根据权利要求1所述的空间相关的全景数据压缩方法,其特征在于:所述步骤(3)中获取参考图像和预测图像场景点的方法为:根据参考图像和预测图像每个像素点的深度值1,利用下列公式(a)计算参考图像和预测图像每个像素点所对应的场景点的三维坐标(x,y,z),从而得到参考图像和预测图像的场景点:
其中,θ为像素点的纬度, 为像素点的经度,1为像素点的深度值。
3.根据权利要求1或2所述的空间相关的全景数据压缩方法,其特征在于:所述的参考图像保存整幅图像本身的颜色信息以及相应的深度信息,预测图像保存新增加的场景点的位置信息和颜色信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/200910081023.9/1.html,转载请声明来源钻瓜专利网。





