[发明专利]一种基于特征点密度由聚焦堆栈估计深度的方法和装置有效
申请号: | 201710090688.0 | 申请日: | 2017-02-20 |
公开(公告)号: | CN106875436B | 公开(公告)日: | 2019-10-22 |
发明(设计)人: | 邱钧;何建梅;刘畅 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06T7/55 | 分类号: | G06T7/55 |
代理公司: | 北京汇智胜知识产权代理事务所(普通合伙) 11346 | 代理人: | 石辉 |
地址: | 100192 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 特征 密度 聚焦 堆栈 估计 深度 方法 装置 | ||
1.一种基于特征点密度由聚焦堆栈估计深度的方法,其特征在于,所述方法包括:
提取聚焦堆栈中每个图像的特征点,根据所述每个图像的特征点得到特征点密度的聚焦测度,建立特征点密度的聚焦测度具体为:
其中,R(x,y)(d)为像素点(x,y)的特征点密度的聚焦测度,表示落入像素点(x,y)邻域Ω(x,y)内的特征点数,Sd(xm,ym)表示点m在深度d下的图像坐标;
利用特征点密度的聚焦测度和已有的聚焦测度,建立线性加权的聚焦测度,根据所述线性加权的聚焦测度得到图像中任意像素点的聚焦测度值;其中:所述已有的聚焦测度具体为改进的拉普拉斯聚焦测度,相应的,所述利用特征点密度的聚焦测度和已有的聚焦测度,建立的线性加权的聚焦测度,具体为
其中,
表示改进的拉普拉斯聚焦测度,为改进的拉普拉斯算子,Id(x,y)表示在d深度下所成图像,step表示改进的拉普拉斯算子中的步进值,参数N决定计算像素点(x,y)的聚焦测度的窗口大小,α∈[0,1]是平衡聚焦测度算子与特征点测度算子的权重;
根据图像中任意像素点的聚焦测度值估计图像中物点的深度。
2.如权利要求1所述的方法,其特征在于,所述提取聚焦堆栈中每个图像的特征点,具体根据透镜与探测器的相互运动或改变透镜的焦距,提取出聚焦堆栈中每个图像的特征点。
3.如权利要求1所述的方法,其特征在于,所述根据图像中任意像素点的聚焦测度值估计图像中物点的深度,具体包括:
计算图像中像素点(x,y)的聚焦测度{focus(x,y)(dk)|k=1,2,…,N};
深度估计方式为d(x,y)=argmaxd{focus(x,y)(dk)},其中,N表示聚焦堆栈图像的总数,focus(x,y)(dk)表示图像在dk深度下像素点(x,y)的聚焦测度值。
4.一种基于特征点密度由聚焦堆栈估计深度的装置,其特征在于,所述装置包括:
第一处理模块,用于提取聚焦堆栈中每个图像的特征点,根据所述每个图像的特征点得到特征点密度的聚焦测度,所述第一处理模块包括提取单元和处理单元;所述处理单元建立的特征点密度的聚焦测度具体为:
式中,R(x,y)(d)为像素点(x,y)的特征点密度的聚焦测度,表示落入像素点(x,y)邻域Ω(x,y)内的特征点数;
第二处理模块,用于根据所述第一处理模块得到的特征点密度的聚焦测度和已有的聚焦测度,建立线性加权的聚焦测度,根据所述线性加权的聚焦测度得到图像中任意像素点的聚焦测度值,所述已有的聚焦测度具体为SML聚焦测度,所述第二处理模块建立的线性加权的聚焦测度,具体为
其中,
表示SML聚焦测度,为改进的拉普拉斯算子,Id(x,y)表示在d深度下所成图像,step表示SML算子中的步进值,参数N决定计算像素点(x,y)的聚焦测度的窗口大小,α∈[0,1]是平衡聚焦测度算子与特征点测度算子的权重;
深度估计模块,用于根据所述第二处理模块得到的图像中任意像素点的聚焦测度值估计图像中物点的深度。
5.如权利要求4所述的装置,其特征在于,所述第一处理模块包括提取单元和处理单元;
所述提取单元,用于根据透镜与探测器的相互运动或改变透镜的焦距,提取出聚焦堆栈中每个图像的特征点;
所述处理单元,用于根据所述提取单元提取的所述每个图像的特征点得到特征点密度的聚焦测度。
6.如权利要求5所述的装置,其特征在于,所述深度估计模块具体包括计算单元和深度估计单元;
所述计算单元,用于计算图像中像素点(x,y)的聚焦测度{focus(x,y)(dk)|k=1,2,…,N};
所述深度估计单元,采用的深度估计方式为d(x,y)=argmaxd{focus(x,y)(dk)},其中,N表示聚焦堆栈图像的总数,focus(x,y)(dk)表示图像在dk深度下像素点(x,y)的聚焦测度值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710090688.0/1.html,转载请声明来源钻瓜专利网。