[发明专利]一种基于头部追踪的超大视角集成成像3D显示方法有效
申请号: | 201310686544.3 | 申请日: | 2013-12-17 |
公开(公告)号: | CN103702099A | 公开(公告)日: | 2014-04-02 |
发明(设计)人: | 王琼华;熊召龙;李述利;邓欢 | 申请(专利权)人: | 四川大学 |
主分类号: | H04N13/00 | 分类号: | H04N13/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出一种基于头部追踪的超大视角集成成像3D显示方法,该方法包括对集成成像部分重合视区相应图像元的渲染和自适应微图像阵列的合成两个步骤。通过使集成成像部分重合视区的重合部分重建的3D场景完全一致,从而满足了微图像阵列切换时观看者观看到的3D场景完全没有跳变。利用微图像阵列像素偏移和显示主视区的关系,根据观看者所处的视区而不是视点合成微图像阵列,大大降低了渲染3D场景微图像阵列的时间延迟,消除了由于观看者快速移动带来的图像跳变。利用该发明可以实现无跳变无延时的超大视角集成成像3D显示。 | ||
搜索关键词: | 一种 基于 头部 追踪 超大 视角 集成 成像 显示 方法 | ||
【主权项】:
1.一种基于头部追踪的超大视角集成成像3D显示方法,该方法包括对集成成像部分重合视区相应图像元的渲染和自适应微图像阵列的合成两个步骤:所述集成成像部分重合视区相应图像元的渲染,根据追踪系统能够捕获的观看者所处的空间范围,在计算机内确定虚拟相机阵列的具体参数,对已建立的3D场景进行拍摄,从而获取图像元,通过移动微图像阵列,使集成成像3D显示产生部分重合视区,实现对集成成像观看空间的划分,然后对移动后的不同主视区进行编号;追踪系统实时捕获观看者的空间方位,并且判断观看者所处的观看空间及相应编号,由追踪系统能够捕获的观看者的空间范围确定虚拟相机阵列的拍摄范围,虚拟相机阵列由投影变换的视框体表示,其中包含的视框体个数为M×N,并且视框体均采用透视投影几何模型,视框体阵列中各视框体间的间距相等且为p,在超大视角集成成像显示系统中,透镜元的节距也为q,而视框体渲染得到的图像元的节距为q,且q大于p,二者具体数值关系由系统观看视角扩大倍数决定,同时受限于追踪系统的追踪范围;假设显示系统单个透镜元对应的像素分辨率为a×b,则视框体渲染获取的图像元分辨率为aq/p×bq/p,渲染得到的图像元像素尺寸为相应显示透镜元像素尺寸的q/p倍,q/p > 1,也就是图像元记录了关于3D场景更多角度的信息;所述自适应微图像阵列的合成过程,将上述渲染得到的图像元合成观看者观看视区相应的自适应微图像阵列,追踪系统实时捕获观看者的空间方位,并判断观看者所处的观看视区及其编号,根据其对应的视区编号合成最终用于显示的自适应微图像阵列,该过程可以分为两个步骤:第一,图像元合成常规微图像阵列的过程,将视框体阵列拍摄得到的图像元按照视框体在相机阵列中的二维编号合成常规微图像阵列,在这个过程中将每个图像元绕其中心旋转180o从而解决重建3D场景的深度翻转问题;第二,所述自适应微图像阵列的提取过程,从常规微图像阵列中提取自适应微图像阵列,其提取规则与观看者所处的观看视区有关,对观看视区水平和竖直两个方向进行编号,当观看者处于观看视区(i, j)时,其中i是视区的水平编号,j是视区的竖直编号,微图像阵列的第x行第y列像素为I(x, y),自适应微图像阵列第m行第n列的像素为I’(m, n),则
其中,![]()
,其中,0≤m<aM,0≤n<bN,Oh(i)和Ov(j)分别为观看者在编号为(i, j)的视区时自适应微图像阵列在水平和垂直的方向上的像素偏移量,且
,
,其中t >1为部分重合视区的重合系数,t越大,相邻视区的重合部分比例越高;为了将自适应微图像阵列切换前后3D显示场景的跳变降到最小,使观看者移动到相邻的部分重合视区重合部分的中间位置时触发自适应微图像阵列的切换,该触发控制信号由追踪系统提供,追踪系统实时追踪观看者的空间方位,并由此合成最终用于显示的自适应微图像阵列。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310686544.3/,转载请声明来源钻瓜专利网。