[发明专利]基于双相机阵列的合成孔径目标多视角成像方法有效
申请号: | 201610044284.3 | 申请日: | 2016-01-22 |
公开(公告)号: | CN105589072B | 公开(公告)日: | 2017-11-17 |
发明(设计)人: | 裴炤;张艳宁;孙莉;马苗;汪西莉;郭敏 | 申请(专利权)人: | 陕西师范大学 |
主分类号: | G01S13/89 | 分类号: | G01S13/89 |
代理公司: | 西北工业大学专利中心61204 | 代理人: | 王鲜凯 |
地址: | 710119 陕西*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相机 阵列 合成 孔径 目标 视角 成像 方法 | ||
技术领域
本发明涉及一种目标成像方法,特别是涉及一种基于双相机阵列的合成孔径目标多视角成像方法。
背景技术
文献“A novel multi-object detection method in complex scene using synthetic aperture imaging,Pattern Recognition,2012,p1637–1658,April 2012”公开了一种基于单相机阵列的动目标成像方法。该方法首先选定某一个相机视角作为参考视角,通过基于混合高斯模型的背景差对各个视角获得的图像数据进行前景提取,然后将获得的各个前景概率图像通过平面加视差的方法投影到不同深度,并加和求均值。采用一个给定的阈值对合成后的前景概率图进行统计即可获得最终目标所在的深度,从而较好的解决了相机阵列合成孔径成像中动目标成像问题。然而,该方法仅适用于动态变化的目标成像,且当目标间深度差距较小时,这种方法将会失效。
发明内容
为了克服现有目标成像方法成像精度低的不足,本发明提供一种基于双相机阵列的合成孔径目标多视角成像方法。该方法采用前后对称的双面棋盘标定板,选定两相机阵列平面的交线作为所有聚焦平面簇的交线,利用Scheimpflug布局对双相机阵列进行标定,依据各相机投影在聚焦平面的方差对各个深度合成孔径图像进行统计,最终获得目标所在最优聚焦平面的成像结果。在充分利用多视角信息的基础上,不依赖于目标状态信息,解决多个相机阵列联动时合成孔径目标成像问题,即在一定的范围内,用双相机阵列的互信息共享,实现目标多视角成像,可以提高目标间深度差距较小时成像的精度。
本发明解决其技术问题所采用的技术方案是:一种基于双相机阵列的合成孔径目标多视角成像方法,其特点是包括以下步骤:
步骤一、采用前后对称的双面棋盘标定版,选定两相机阵列平面的交线作为所有聚焦平面簇的交线,利用Scheimpflug配置对双相机阵列进行标定。平面πr为选定的参考平面,k为两相机阵列平面的交线。利用双面黑白格对称标定板,分别在距平面πr不同角度且均相交于k的若干平面上对双相机阵列进行标定,获得相机间距离参数ΔX,应用公式(1)得到视差Δp
式中,θ为任意平面与某一相机阵列的夹角大小,r为参考平面与该相机阵列的夹角。
基于视差,将各相机阵列聚焦平面,投影至相交于直线k的平面簇上,应用公式(2)获得在穿过k任意倾斜角度平面的合成孔径成像结果
式中,为相机阵列中各视角投影在参考平面πr的投影图像N为单相机阵列中的相机数目,i为相机序号。
步骤二、采用基于方差的合成孔径成像算法对各个深度合成孔径图像进行统计,应用公式(3)计算各视角各对应像素m的方差
其中
式中,为聚焦角度θ上对应m点的均值。设一个角度范围为D。
在统计的基础上,当焦平面接近最优聚焦角度时,目标上对应像素点m的方差将会越接近于H,H为一接近于0的值,应用公式(5)得到m在角度θ的标记值
在当前存在目标区域范围内,搜索角度范围中最优角度是D中具有最小方差的角度,即
d=arg minD{var(I)}.(6)
式中,d为某一相机阵列在探测区域D中的最优角度。
步骤三、从每个相机的参考视角中的位置确定合成孔径成像中的各像素值。
通过被标记的合成孔径成像得到每个相机视角在不同深度的被标记的参考平面图像。再应用公式(8)将参考平面上每个相机视角的所有深度范围内的标记单独融合。
式中,&&表示在同一位置不同深度的每个标记的与操作。f表示某像素点的标记,若θ从0到π,中有一个标记为0,则为0,否则为1。将被标记的参考图像投影至第二相机阵列目标平面。计算每个相机视角的图像的平均值并去除被标记为0的像素。通过应用公式(9)去除遮挡后得到最终的透视结果。
式中,为最终的透视结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于陕西师范大学,未经陕西师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610044284.3/2.html,转载请声明来源钻瓜专利网。