[发明专利]基于3ds Max三维重建的光场图像仿真制作方法及终端设备在审
申请号: | 202211134490.5 | 申请日: | 2022-09-19 |
公开(公告)号: | CN115471610A | 公开(公告)日: | 2022-12-13 |
发明(设计)人: | 吴天昊;张宇翔;杨俊刚;李振;盛卫东;安玮 | 申请(专利权)人: | 中国人民解放军国防科技大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T15/20;G06T7/586;G06T15/50 |
代理公司: | 长沙正奇专利事务所有限责任公司 43113 | 代理人: | 魏国先;王娟 |
地址: | 410001 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 ds max 三维重建 图像 仿真 制作方法 终端设备 | ||
本发明公开了一种基于3ds Max三维重建的光场图像仿真制作方法及终端设备,解决传统光场图像制作过程中不能针对阵列相机基线变化的缺点,该方法具有相机参数稳定,成像基线可变,同时呈现深度图等优势特点。采用本发明方法制作的光场仿真图像进行光场图像重聚焦实验,实验结果表明,该方法制作的光场图像完全符合实验要求,与传统方法相比,该方法制作图像质量均衡、自动化程度高,能够有效提高特定场景下光场图像的制作效率。
技术领域
本发明涉及光场成像技术,特别是一种基于3ds Max三维重建的光场图像仿真制作方法及终端设备。
背景技术
图像记录了光的信息,也是人类记录三维世界的手段。纵览人类历史,实际上也是人类对于光学信息的研究发展史,从简笔绘画到精美的写实画,从手工绘制地图到如今的数字实景地图。然而目前的相机成像技术依旧依赖于针孔成像模型,是使用传感器记录空间中某一平面的光强二维分布,是对七维全光函数进行二维采样的过程。在传统成像技术的基础上,计算摄影学从记录多维光学信息的角度,克服了传统成像方法的以下局限:
1)景深和光圈大小的局限性。传统光学成像的镜头光圈限制成像的景深[1]。光圈越大,镜头对光信号的采集能力越强,成像质量越好。但与之同时出现的问题是景深范围小,不利于全场景成像。
2)二维采样的局限性。针孔成像模型中的图片为三维世界坐标系的点在二维上的投影,因此传统成像模型无法采集深度信息。
3)镜头成本的局限性。传统相机要想获得更好的成像质量,需要更大体积更大光圈的镜头,从而产生较为高昂的费用[1]。
在计算摄影学中,近十多年逐渐成熟的光场成像(light field imaging)已经成为现代光学成像的新兴领域。光场成像设备可以同时记录光线的强度和方向,人们利用这一点可以提取出场景的三维信息。利用三维信息,光场数据可以生成场景深度图。深度图像是三维场景重建的基础,利用此信息可以实现更多复杂算法。此外,光场成像还可以实现光场重聚焦[2,3]、光场超分辨等功能。
现有的用于光场成像的设备有扫描式光场成像设备[4~8],微透镜光场设备[9~12],以及目前热门的阵列相机光场成像设备[13~17]。目前绝大多数光场图像都经由现实世界的光场成像设备制作,真实光场图像的优势在于拍摄的场景全部源于真实世界,但是真实光场图像过于依赖于现实条件,例如昂贵的光场成像设备、拍摄时的环境指标,否则其成像质量将难以保证。而且当下这种基于阵列相机制作的光场图像并不能提供同一场景下阵列相机基线可变化的需求,极大地限制了光场图像的应用场景。
阵列相机的原理是在四维光场中,在多个位置放置相机对四维光场进行二维切片,相当于对光场进行多角度的二维采样。
Yang等人[13]设计了一个8×8的阵列相机。这种设备的特点是能够对运动的光场进行感知。Zhang与Chen[15]设计了一个6×8的光场成像设备。这种设备可以渲染不在6×8视角位置的视角的图像。其是通过对各子相机位置视角重排列。通过这种手段获得成像品质更优。Wilburn等人[14]制作了一个8×12的阵列相机,并且将获取的光场数据制作成了公开数据集。来自西北工业大学的研究团队,研制了一种8×8的相机阵列[17]。他们基于这种阵列相机在相机校正[18]等课题进行了深度研究。以上提到的阵列相机均为大型的光场成像设备,价格昂贵。另一方面,随着相机逐渐向小型化发展,也有团队将阵列相机的小型化作为目标。PiCam是一款超薄4×4的阵列成像设备,整体体积与硬币相当,由Venkataraman的团队研制[16]。
综上,阵列相机具有如下特点:
1)阵列相机可以瞬时获取光场。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军国防科技大学,未经中国人民解放军国防科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211134490.5/2.html,转载请声明来源钻瓜专利网。