[发明专利]一种基于单个深度神经网络的多噪声类型盲去噪方法有效
申请号: | 201911346539.1 | 申请日: | 2019-12-24 |
公开(公告)号: | CN111192211B | 公开(公告)日: | 2022-07-01 |
发明(设计)人: | 陈耀武;谢才扬;蒋荣欣 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 曹兆霞 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 单个 深度 神经网络 噪声 类型 盲去噪 方法 | ||
本发明公开了一种基于单个深度神经网络的多噪声类型盲去噪方法,包括以下步骤:基于卷积神经网络构建多任务噪声估计子网络,利用该多任务噪声估计子网络对输入原始噪声图像进行噪声类型估计和噪声水平估计;基于卷积层构建去噪子网络,利用该去噪子网络对多任务噪声估计子网络输出的噪声类型和噪声水平整合获得的混合图像进行去噪,输出噪声残差图像;融合原始噪声图像和噪声残差图像,获得去噪后图像。该多噪声类型盲去噪方法通过对噪声进行分类然后针对每类噪声单独去噪,大大提升了去噪效果。
技术领域
本发明涉及计算机科学图像处理领域,尤其涉及一种基于单个深度神经网络的多噪声类型盲去噪方法。
背景技术
图像去噪是图像处理领域的一大基础问题,近年来深度学习网络的快速发展为去噪算法提供了一种高效的解决方案。但是现有的基于深度学习网络的去噪算法主要针对高斯噪声展开,且单个深度学习网络往往仅针对单一的高斯噪声水平进行训练,得到的网络模型无法处理其他噪声水平图像,更不用说其他噪声类型的图像。而真实噪声往往涉及多种未知噪声特性,包括不同的噪声类别与噪声水平,这种噪声特性未知的去噪需求被称为盲去噪问题。一些较新的研究在解决高斯噪声的盲去噪问题上已取得一定的进展,但是针对不同噪声类型的盲去噪问题仍亟待解决。
公布号为CN108876735A的专利申请公开了一种基于深度残差网络的真实图像盲去噪方法,公布号为CN 110197183A的专利申请公开了一种图像盲去噪的方法,这两种盲去噪方法均是泛泛地对图像进行去噪,去噪效果不佳。
发明内容
本发明的目的是提供一种基于单个深度神经网络的多噪声类型盲去噪方法,该多噪声类型盲去噪方法通过对噪声进行分类然后针对每类噪声单独去噪,大大提升了去噪效果。
为实现上述发明目的,本发明提供以下技术方案:
一种基于单个深度神经网络的多噪声类型盲去噪方法,包括以下步骤:
基于卷积神经网络构建多任务噪声估计子网络,利用该多任务噪声估计子网络对输入原始噪声图像进行噪声类型估计和噪声水平估计;
基于卷积层构建去噪子网络,利用该去噪子网络对多任务噪声估计子网络输出的噪声类型和噪声水平整合获得的混合图像进行去噪,输出噪声残差图像;
融合原始噪声图像和噪声残差图像,获得去噪后图像。
优选地,所述多任务噪声估计子网络包括卷积神经网络和全连接层,其中,卷积神经网络用于提取原始噪声图像的图像特征,全连接层用于对图像特征进行特征到噪声类型和噪声水平的映射,输出估计的噪声类型和噪声水平。
优选地,所述去噪子网络包括浅层网络、深层网络、点乘操作单元、重建卷积层,其中,浅层网络用于提取混合图像的空域掩膜,深层网络用于提取混合图像的噪声残差特征,点乘操作单元用于对空域掩膜和噪声残差特征通过点乘操作进行结合,并将结合结果输出至重建卷积层,重建卷积层对结合结果进行卷积,生成噪声残差图像。
优选地,所述浅层网络包括若干个卷积层,所述深层网络包括若干个卷积层,且所述浅层网络包含的卷积层的个数小于所述深层网络的卷积层的个数。进一步地,所述浅层网络包括2个卷积层,所述深沉网络包含至少3个卷积层。
其中,所述多任务噪声估计子网络和所述去噪子网络的训练过程为:
首先利用训练样本训练多任务噪声估计子网络,在确定多任务噪声估计子网络参数后,固定多任务噪声估计子网络参数,并连接上去噪子网络,然后利用样本重新对多任务噪声估计子网络和去噪子网络进行训练,以调节去噪子网络参数。
训练多任务噪声估计子网络时,由于是多任务网络,其损失函数ψ1也包含噪声类型损失和噪声水平损失两部分,其中,选用交叉熵损失函数,选用均方差损失函数,则损失函数ψ1为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911346539.1/2.html,转载请声明来源钻瓜专利网。