[发明专利]一种单目视觉聚焦堆栈采集与场景重建方法有效
申请号: | 201711293627.0 | 申请日: | 2017-12-08 |
公开(公告)号: | CN108053468B | 公开(公告)日: | 2021-02-26 |
发明(设计)人: | 刘畅;赵旭;亢新凯;邱钧 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;H04N13/207;H04N13/271;H04N5/232 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目视 聚焦 堆栈 采集 场景 重建 方法 | ||
1.一种单目视觉聚焦堆栈采集与场景重建方法,其特征在于,包括:
步骤100,通过电控旋转器控制定焦镜头的转动,采集聚焦堆栈数据;其中:在定焦镜头的转动的过程中,固定探测器,并沿相机的光轴同步平移定焦透镜;
步骤200,根据步骤100中对定焦镜头的位置调整,建立电控旋转器的转动角度与成像面深度的对应关系:a=a0+k(pi),其中:pi为电控旋转器的转动角度,a0为初始成像面深度,a为成像面深度,k(pi)为成像面深度与旋转角度之间的变换函数;
步骤300,根据步骤200得到的电控旋转器的转动角度和成像面深度的对应关系,并结合透镜成像的物像关系,建立电控旋转器的转动角度与聚焦物面深度之间的对应关系:
其中:f为定焦透镜的焦距,d为成像面与物面在相机光轴上的水平距离;
步骤400,根据步骤300中得到的电控旋转器的转动角度与聚焦物面深度之间的对应关系,利用极大化聚焦测度泛函数计算每一物点的深度,进而输出场景深度图和全聚焦图,并由深度图和全聚焦图重构三维场景;
步骤400中的“利用极大化聚焦测度泛函数计算每一物点的深度”为:
d(x,y)=maxd|focus{F(d,x,y)}|;
其中:F(d,x,y)为步骤100采集到的聚焦堆栈,最大聚焦测度所在位置作为物点的图像深度;
步骤400中的“全聚焦图”的模型描述为下式:
I(x,y)=F(d(x,y),x,y)。
2.如权利要求1所述的单目视觉聚焦堆栈采集与场景重建方法,其特征在于,通过在不同的时刻对输入电控旋转器的电流大小进行控制,使电控旋转器输出目标转动方向和转动角度,电控旋转器将其转动方向和转动角度传递给定焦镜头。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711293627.0/1.html,转载请声明来源钻瓜专利网。