[发明专利]一种基于NSST与聚焦区域检测的多聚焦图像融合方法在审

专利信息
申请号: 201410293208.7 申请日: 2014-06-26
公开(公告)号: CN104077762A 公开(公告)日: 2014-10-01
发明(设计)人: 莫建文;邹宁;袁华;陈利霞;张彤;首照宇;欧阳宁;赵晖;林乐平;张顺岚 申请(专利权)人: 桂林电子科技大学
主分类号: G06T5/50 分类号: G06T5/50
代理公司: 桂林市华杰专利商标事务所有限责任公司 45112 代理人: 杨雪梅
地址: 541004 广西*** 国省代码: 广西;45
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开一种基于NSST和聚焦区域检测的多聚焦图像融合方法,首先对待融合的多聚焦图像分别利用NSST及相应的融合规则,得到初始融合图像;将待融合的源图像分别与初始融合图像进行比较,对于源图像中与初始融合图像相似性较大的像素点,我们认为它是来自源图像中的严格聚焦区域的,根据这一理论我们可以确定源图像中的聚焦区域;最后,在已经确定的聚焦区域上利用改进的脉冲耦合神经网络获得最终的融合图像。本发明可以充分的提取各源图像中的有用信息并注入到融合图像中,有效地克服了基于变换域的融合算法不能选取出所有位于聚焦区域内的系数的缺陷,并且获得的融合图像在视觉效果及客观指标上均优于经典的多尺度融合算法。
搜索关键词: 一种 基于 nsst 聚焦 区域 检测 图像 融合 方法
【主权项】:
一种基于NSST与聚焦区域检测的多聚焦图像融合方法,其特征在于包括下述步骤:步骤1:对已配准的待融合图像A、B分别进行NSST分解,对得到的低频子带系数和高频子带系数分别应用不同的融合规则,从而得到一幅初始融合图像;步骤2:通过均方根误差方法测定源图像与初始融合图像之间的相似性来识别出初始聚焦区域,均方根误差计算公式分别为:<mrow><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><munderover><mi>&Sigma;</mi><mrow><mi>m</mi><mo>=</mo><mo>-</mo><mi>M</mi></mrow><mi>M</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>n</mi><mo>=</mo><mo>-</mo><mi>N</mi></mrow><mi>N</mi></munderover><msup><mrow><mo>(</mo><msub><mi>I</mi><mi>F</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mrow><mrow><mrow><mo>(</mo><mn>2</mn><mi>M</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>&times;</mo><mrow><mo>(</mo><mn>2</mn><mi>N</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow></mrow></mfrac><mo>)</mo></mrow><mrow><mn>1</mn><mo>/</mo><mn>2</mn></mrow></msup></mrow><mrow><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><msup><mrow><mo>(</mo><mfrac><mrow><munderover><mi>&Sigma;</mi><mrow><mi>m</mi><mo>=</mo><mo>-</mo><mi>M</mi></mrow><mi>M</mi></munderover><munderover><mi>&Sigma;</mi><mrow><mi>n</mi><mo>=</mo><mo>-</mo><mi>N</mi></mrow><mi>N</mi></munderover><msup><mrow><mo>(</mo><msub><mi>I</mi><mi>F</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>+</mo><mi>m</mi><mo>,</mo><mi>j</mi><mo>+</mo><mi>n</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mrow><mrow><mrow><mo>(</mo><mn>2</mn><mi>M</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>&times;</mo><mrow><mo>(</mo><mn>2</mn><mi>N</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow></mrow></mfrac><mo>)</mo></mrow><mrow><mn>1</mn><mo>/</mo><mn>2</mn></mrow></msup></mrow>其中,IA(i,j),IB(i,j)和IF(i,j)分别表示图像A、B和初始融合图像F在点(i,j)处的像素值;通过比较RMSEA和RMSEB的大小,可以经由下式得到一个二值化图像,<mrow><mi>Z</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><mn>1</mn></mtd><mtd><mi>if</mi><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>&le;</mo><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr><mtr><mtd><mn>0</mn></mtd><mtd><mi>if</mi><msub><mi>RMSE</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>></mo><msub><mi>RMSE</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced></mrow>二值图像中,Z(i,j)=1表示在图像A中,点(i,j)处的像素位于聚焦区域,否则,图像B中在该点处的像素属于聚焦区域;步骤3:利用小结构元素的形态学开闭运算对步骤2中得到的二值图像进行修正,消除初始聚焦区域中的突起、断点和裂缝;步骤4:通过改进的脉冲耦合神经网络(IPCNN)和步骤3中已修正的聚焦区域获得最终的融合图像,融合规则如下:<mrow><msub><mi>I</mi><mi>FF</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='{' close=''><mtable><mtr><mtd><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><msup><mi>Z</mi><mo>&prime;</mo></msup><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>1</mn><mi>and W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mi>m</mi><mo>&times;</mo><mi>n</mi></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><msup><mi>Z</mi><mo>&prime;</mo></msup><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn><mi>and W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mn>0</mn></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><mn>0</mn><mo>&lt;</mo><mi>W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>&lt;</mo><mi>m</mi><mo>&times;</mo><mi>n and</mi><msub><mi>T</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>&le;</mo><msub><mi>T</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr><mtr><mtd><msub><mi>I</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd><mtd><mi>if</mi><mn>0</mn><mo>&lt;</mo><mi>W</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>&lt;</mo><mi>m</mi><mo>&times;</mo><mi>n and</mi><msub><mi>T</mi><mi>A</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>></mo><msub><mi>T</mi><mi>B</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr></mtable></mfenced></mrow>其中,IA(i,j),IB(i,j)和IFF(i,j)分别表示图像A、B和最终融合图像F在点(i,j)处的像素值,Z′为修正的二值图像,W(i,j)表示Z′中以点(i,j)为中心、大小为m×n的局部区域像素和,TA(i,j)和TB(i,j)分别表示源图像A和B输入到改进的脉冲耦合神经网络后得到的赋时矩阵在点(i,j)处的值;上述的邻域(2M+1)×(2N+1)和m×n的大小分别设为5×5和3×3。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201410293208.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top