[发明专利]一种基于随机重排和无标签模型的隐式图像盲去噪方法有效
申请号: | 202211076019.5 | 申请日: | 2022-09-02 |
公开(公告)号: | CN115482162B | 公开(公告)日: | 2023-10-24 |
发明(设计)人: | 聂琳;徐丽莉;康文雄;施煜锴 | 申请(专利权)人: | 华南理工大学;广东工业大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00;G06T5/20;G06T5/50;G06N3/0464;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 黄月莹 |
地址: | 510640 广*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 随机 重排 标签 模型 图像 盲去噪 方法 | ||
1.一种基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,包括以下步骤:
利用图像高频信号滤波器提取带噪图像的低频图像,接着用带噪图像减去低频图像以获取高频信号,并对高频信号进行预处理;
通过隐式噪声模型提取高频信号生成同类型的噪声信号,利用生成的的噪声信号构建带噪图像数据;
将带噪图像数据训练基于神经网络盲去噪模型,利用训练好的基于神经网络盲去噪模型对图像进行去噪处理。
2.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,通过以下公式获取高频信号h:
其中n表示具有先验的Pj*的纯噪声,o表示包括噪声信息和图像细节信息的高频信息,表示操作数的空间共存。
3.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,对高频信号进行预处理包括:
使用空间变换f将高频信号h中带有噪声信息和图像细节信息的高频信息o进行打乱,从而得到无纹理细节的纯噪声,记为o’:
将空间变换函数f(·)应用于高频信号h,即:
其中,h’表示多种混合噪声信号;将n’视为纯噪声n,即:
检索到多种混合噪声信号h’后,将多种混合噪声信号h’添加到干净图像xc中,构造噪声图像xh’,
其中xc代表随机的一张无噪图像;
由于多种混合噪声信号h’是局部的o’或纯噪声n,构造两对图像,得到θ去噪器,通过最小化从噪声图像中去除纯噪声n和o’
其中θ是去噪网络的参数,Pj*是原始噪声先验,Pj′是图像纹理经过空间打乱后形成的新的噪声的先验,P^j代表混合噪声信号h’的噪声先验。
4.根据权利要求3所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,空间变换f满足以下两个要求:
(1)f(n)=n’;其中具有先验的Pj*的纯噪声n和n’服从相同的分布Pj*;其中f(n)表示空间变换函数,n’表示输入噪声信号n经过空间变换后的结果,Pj*表示图像的原始噪声分布;
(2)f(o)=o’,其中o表示包括噪声信息和图像细节信息的高频信息,o’表示从Pj’采样的噪声类型;f(o)表示空间变换函数,o’表示高频信号o经过空间变换后的结果,Pj’表示的o’噪声分布。
5.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,带噪图像数据的构建是将生成的的噪声信号添加到干净的图像中,形成成对的训练数据。
6.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,所述基于神经网络盲去噪模型采用DnCNN-B网络IRCNN。
7.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,所述基于神经网络盲去噪模型采用IRCNN网络。
8.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,基于神经网络盲去噪模型的损失函数为:
其中表示N个成对的有噪声的和干净的训练图像,xn表示带噪图像,xc表示xn对应的干净图像,l(θ)表示参数为θ时的损失函数,||·||2表示平方差。
9.根据权利要求1所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,基于神经网络盲去噪模型的损失函数为L1距离。
10.根据权利要求1~9任一项所述的基于随机重排和无标签模型的隐式图像盲去噪方法,其特征在于,对于合成噪声的去除,采用高斯高通滤波器提取高频信号h:
h=xn-GaussianBlur(xn,σb)
其中σb是高斯模糊滤波器的标准差,xn表示有噪声的图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学;广东工业大学,未经华南理工大学;广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211076019.5/1.html,转载请声明来源钻瓜专利网。