[发明专利]一种权值窗口自适应非局部均值图像去噪方法在审

专利信息
申请号: 201410195821.5 申请日: 2014-05-09
公开(公告)号: CN103955903A 公开(公告)日: 2014-07-30
发明(设计)人: 曾维理;季赛平;李聪;路小波;费树岷 申请(专利权)人: 东南大学
主分类号: G06T5/00 分类号: G06T5/00
代理公司: 江苏永衡昭辉律师事务所 32250 代理人: 王斌
地址: 210096*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种权值窗口自适应非局部均值图像去噪方法,能够根据图像局部结构特性自适应控制权值窗口的大小,在保护边缘结构的同时抑制噪声,从而使得图像质量显著提高,它包括如下步骤:第一步,初始化读入一帧噪声图像;第二步,构建结构张量矩阵;第三步,根据所构建的结构张量矩阵,构建边缘结构指示符,定位像素点所在区域特征;第四步,利用边缘结构指示符对图像进行区域分类;第五步,根据每个像素点所属区域的类别,确定每个像素点的邻域大小;第六步,根据所确定的邻域大小,构建邻域间的相似性度量函数;第七步,筛选相似性最高的S个点;第八步,构建去噪模型,得到去噪图像。
搜索关键词: 一种 窗口 自适应 局部 均值 图像 方法
【主权项】:
一种权值窗口自适应非局部均值图像去噪方法,其特征在于,该方法包括以下步骤:步骤1:读入一帧大小为M1×M2×3的噪声彩色图像u0,其中M1和M2为正整数,分别表示图像矩阵的行数和列数,然后将输入的噪声彩色图像从RGB彩色空间转换到YCbCr彩色空间,转换后的噪声图像记为f,大小为M1×M2×3;步骤2:构建噪声图像f所有像素点(i,j)的结构张量矩阵Tσ(i,j)<mrow><msub><mi>T</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfenced open='[' close=']'><mtable><mtr><mtd><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mtd><mtd><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mtd></mtr><mtr><mtd><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><msub><mi>f</mi><mi>y</mi></msub><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mtd><mtd><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>其中,fx(i,j)表示噪声图像f在点(i,j)处沿坐标轴x方向的导数,fy(i,j)表示噪声图像f在点(i,j)处沿坐标轴y方向的导数,Gσ(i,j)表示标准差为σ的高斯核函数,其表达式为:<mrow><mi>G</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><msup><mrow><mn>2</mn><mi>&pi;&sigma;</mi></mrow><mn>2</mn></msup></mfrac><mi>exp</mi><mo>[</mo><mo>-</mo><mrow><mo>(</mo><msup><mi>i</mi><mn>2</mn></msup><mo>+</mo><msup><mi>j</mi><mn>2</mn></msup><mo>)</mo></mrow><mo>/</mo><msup><mrow><mn>2</mn><mi>&sigma;</mi></mrow><mn>2</mn></msup><mo>]</mo></mrow>其中,exp表示公知的以e为底的指数函数,标准差σ取值范围为0.5;步骤3:构建边缘结构指示符,具体方法为:利用雅克比方法求得结构张量矩阵Tσ(i,j)在噪声图像f中所有像素点(i,j)处的主特征值λ1(i,j)和次特征值λ2(i,j)分别为:<mrow><mfenced open='' close=''><mtable><mtr><mtd><msub><mi>&lambda;</mi><mn>1</mn></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><mo>{</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mtd></mtr><mtr><mtd><mo>+</mo><msqrt><msup><mrow><mo>(</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>-</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><mn>4</mn><msup><mrow><mo>(</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></msqrt><mo>}</mo></mtd></mtr></mtable></mfenced><mo>,</mo></mrow><mrow><mfenced open='' close=''><mtable><mtr><mtd><msub><mi>&lambda;</mi><mn>2</mn></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mn>2</mn></mfrac><mo>{</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></mtd></mtr><mtr><mtd><mo>-</mo><msqrt><msup><mrow><mo>(</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>-</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msup><mrow><mo>(</mo><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup><mo>)</mo></mrow><mn>2</mn></msup><mo>+</mo><mn>4</mn><msup><mrow><mo>(</mo><msub><mi>G</mi><mi>&sigma;</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>*</mo><msub><mi>f</mi><mi>x</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><msub><mi>f</mi><mi>y</mi></msub><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>)</mo></mrow><mn>2</mn></msup></msqrt><mo>}</mo></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>然后根据结构张量矩阵Tσ(i,j)的主特征值λ1(i,j)和次特征值λ2(i,j),构建如下边缘结构指示符ρ(i,j):ρ(i,j)=0.3×ln(|λ1(i,j)‑λ2(i,j)|)其中,|·|表示绝对值,ln是公知的以e为底的对数函数;步骤4:利用边缘结构指示符ρ(i,j),按照如下方法对噪声图像f的所有像素点(i,j)进行区域分类:其中,V表示区域分类的总类数,且为正整数,取V=6,Cp(p=1,2,…,V)表示第p类像素点集,p为区域分类的序号,λmin表示整个图像区域中最小的次特征值,λmax表示整个图像区域中最大的主特征值;步骤5:根据每个像素点所属区域的类别,按照如下方式选取邻域Ni,j的大小R(i,j):步骤6:构建像素点(i,j)的邻域Ni,j和任意像素点(k,l)的邻域Nk,l的相似性度量函数w(i,j,k,l)为:<mrow><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow><mo>=</mo><mi>exp</mi><mo>{</mo><mo>-</mo><mfrac><msubsup><mrow><mo>|</mo><mo>|</mo><msub><mi>N</mi><mrow><mi>k</mi><mo>,</mo><mi>l</mi></mrow></msub><mo>-</mo><msub><mi>N</mi><mrow><mi>i</mi><mo>,</mo><mi>j</mi></mrow></msub><mo>|</mo><mo>|</mo></mrow><mn>2</mn><mn>2</mn></msubsup><msup><mi>h</mi><mn>2</mn></msup></mfrac><mo>}</mo></mrow>其中,(k,l)表示一个与(i,j)不同的像素点的坐标,表示Nk,l‑Ni,j的L2范数,h表示权值函数的衰减因子,取h=1;步骤7:根据相似性度量函数w(i,j,k,l),按照如下方式,从噪声图像f中筛选出与像素点(i,j)相似度最高的S个点,取S=20:<mrow><mover><msub><mi>B</mi><mrow><mi>i</mi><mo>,</mo><mi>j</mi></mrow></msub><mo>&OverBar;</mo></mover><mo>=</mo><mo>{</mo><mrow><mo>(</mo><msub><mi>k</mi><mn>1</mn></msub><mo>,</mo><msub><mi>l</mi><mn>1</mn></msub><mo>)</mo></mrow><mo>,</mo><mrow><mo>(</mo><msub><mi>k</mi><mn>2</mn></msub><mo>,</mo><msub><mi>l</mi><mn>2</mn></msub><mo>)</mo></mrow><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>,</mo><mrow><mo>(</mo><msub><mi>k</mi><mi>S</mi></msub><mo>,</mo><msub><mi>l</mi><mi>S</mi></msub><mo>)</mo></mrow><mo>|</mo><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><msub><mi>k</mi><mn>1</mn></msub><mo>,</mo><msub><mi>l</mi><mn>1</mn></msub><mo>)</mo></mrow><mo>&GreaterEqual;</mo><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><msub><mi>k</mi><mn>2</mn></msub><mo>,</mo><msub><mi>l</mi><mn>2</mn></msub><mo>)</mo></mrow><mo>&GreaterEqual;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&CenterDot;</mo><mo>&GreaterEqual;</mo><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><msub><mi>k</mi><mi>S</mi></msub><mo>,</mo><msub><mi>l</mi><mi>S</mi></msub><mo>)</mo></mrow><mo>}</mo></mrow>其中表示与像素点(i,j)相似度最高的S个像素点的集合;步骤8:对噪声图像f去噪,具体方法为:对于噪声图像f中的每一个像素点(i,j),根据下式去噪,得到像素点(i,j)去噪后的像素值<mrow><mover><mi>f</mi><mo>&OverBar;</mo></mover><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><mfrac><mn>1</mn><mrow><mi>Q</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow></mrow></mfrac><munder><mi>&Sigma;</mi><mrow><mrow><mo>(</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow><mo>&Element;</mo><mover><msub><mi>B</mi><mrow><mi>i</mi><mo>,</mo><mi>j</mi></mrow></msub><mo>&OverBar;</mo></mover></mrow></munder><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow><mi>f</mi><mrow><mo>(</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow></mrow>其中,Q(i,j)为(i,j)处的归一化常数,Q(i,j)的表达式为<mrow><mi>Q</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>)</mo></mrow><mo>=</mo><munder><mi>&Sigma;</mi><mrow><mrow><mo>(</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow><mo>&Element;</mo><mover><msub><mi>B</mi><mrow><mi>i</mi><mo>,</mo><mi>j</mi></mrow></msub><mo>&OverBar;</mo></mover></mrow></munder><mi>w</mi><mrow><mo>(</mo><mi>i</mi><mo>,</mo><mi>j</mi><mo>,</mo><mi>k</mi><mo>,</mo><mi>l</mi><mo>)</mo></mrow></mrow>得到所有像素点去噪后的像素值后,即构成噪声图像f去噪后的图像
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201410195821.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top