[发明专利]一种单目视觉聚焦堆栈采集与场景重建方法有效
申请号: | 201711293627.0 | 申请日: | 2017-12-08 |
公开(公告)号: | CN108053468B | 公开(公告)日: | 2021-02-26 |
发明(设计)人: | 刘畅;赵旭;亢新凯;邱钧 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;H04N13/207;H04N13/271;H04N5/232 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目视 聚焦 堆栈 采集 场景 重建 方法 | ||
本发明公开了一种单目视觉聚焦堆栈采集与场景重建方法,其包括:通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;根据对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;根据电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;根据电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,输出场景深度图和全聚焦图,以重构三维场景。本发明能够来满足对相机拍摄视场(FOV)下三维场景重构、图像深度信息和全聚焦的需求,生成深度图和全聚焦图像。
技术领域
本发明涉及计算机视觉与数字图像处理领域,是一种单目视觉聚焦堆栈采集与场景重建方法。
背景技术
图像深度是指真实场景到摄像机成像平面之间的距离。深度信息在传感器中也得到了广泛的应用,如图像识别与处理、智能机器人、虚拟与现实技术等。
目前图像深度信息的获取主要有两种方式,即深度相机拍摄和深度估计软件估计。在深度相机系统中,深度的获取大多数靠飞行时间原理来估计深度,但是由于受到环境影响因素较大,其精确性较低。另外还有基于双目立体匹配的深度传感装置,其对硬件要求较高,且算法复杂,计算的时间较长,不适合广泛的使用。对于深度估计软件,往往在处理数据的过程中准确率较低。
因此,希望有一种技术方案来克服或至少减轻现有技术的上述缺陷中的至少一个。
发明内容
本发明的目的在于提供一种单目视觉聚焦堆栈采集与场景重建方法来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种单目视觉聚焦堆栈采集与场景重建方法,其包括:
步骤100,通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;其中:在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;
步骤200,根据步骤100中对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系;
步骤300,根据步骤200得到的电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系;
步骤400,根据步骤300中得到的电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函计算每一物点的深度,进而输出场景深度图和全聚焦图,并由深度图和全聚焦图重构三维场景。
进一步地,通过在不同的时刻对输入电控旋转器的电流大小进行控制,使电控旋转器输出目标转动方向和转动角度,电控旋转器将其转动方向和转动角度传递给定焦镜头。
进一步地,步骤200得到的成像面深度与发电控旋转器的转动角度之间的对应关系为:a=a0+k(pi),其中:pi为电控旋转器的转动角度,a0为初始成像面深度,a为成像面深度,k(pi)为成像面深度与旋转角度之间的变换函数。
进一步地,步骤300得到的聚焦物面深度与电控旋转器的转动角度之间的对应关系为:
其中:f为定焦透镜的焦距,d为成像面与物面在相机光轴上的水平距离。
进一步地,步骤400中的“利用极大化聚焦测度泛函计算每一物点的深度”为:
d(x,y)=maxd|focus{F(d,x,y)}|;
其中:F(d,x,y)为步骤100采集到的聚焦堆栈,最大聚焦测度所在位置作为物点的图像深度;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711293627.0/2.html,转载请声明来源钻瓜专利网。