[发明专利]一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法在审
申请号: | 201910584613.7 | 申请日: | 2019-07-01 |
公开(公告)号: | CN110349103A | 公开(公告)日: | 2019-10-18 |
发明(设计)人: | 刘辉;陆县委 | 申请(专利权)人: | 昆明理工大学 |
主分类号: | G06T5/00 | 分类号: | G06T5/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 650093 云*** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 清晰图像 去噪 标签图像 神经网络 噪声图像 跳跃 卷积 计算机视觉领域 卷积神经网络 公共数据集 图像数据集 标签训练 输入噪声 损失函数 图像处理 网络模型 效果水平 噪声处理 最优参数 高效率 上采样 下采样 最小化 清晰 求解 构建 浅层 噪声 对称 标签 图像 预测 网络 学习 | ||
1.一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法,其特征在于:
所述基于深度神经网络和跳跃连接的无干净标签图像去噪方法的具体步骤如下:
Step1、选择公用的数据集;
Step2、对选择的数据集进行添加噪声处理;
Step3、结合图像中的噪声类型,建立U-Net++深度卷积神经网络;
Step4、将有噪声的图像送入所述的U-Net++深度卷积神经网络,得到图像去噪网络模型;
Step5、通过求解最小化损失函数的值,学习到网络模型的最优参数,利用训练好的网络模型来对噪声图像进行复原。
2.根据权利要求1所述的基于深度神经网络和跳跃连接的无干净标签图像去噪方法,其特征在于:所述步骤Step2的具体步骤如下:
步骤Step2.1、对数据集中的每一张图像进行选取和裁剪,使计算设备处于可承担的运算环境;
步骤Step2.2、创建不同的噪声模型,根据需求对数据集添加不同的噪声。
3.根据权利要求2所述的基于深度神经网络和跳跃连接的无干净标签图像去噪方法,其特征在于:所述步骤Step2.2的具体步骤如下:
Step2.2.1、设计四种噪声模型,分别为加性高斯噪声、泊松噪声、乘性伯努利噪声、文本噪声;加性高斯噪声,其中模型参数噪声标准偏差σ∈[0,50];泊松噪声,其中模型参数噪声幅度λ∈[0,50];乘性伯努利噪声,其中用p表示像素损坏概率则设定p∈[0,0.95];文本噪声,其中p∈[0,0.5];
Step2.2.2、将从数据集中选取的一张图像送入噪声模型即添加噪声分布,次数为两次,分别得到两张不同的噪声图像,其中一张用作网络模型输入的噪声图像,另一张用作标签图像;
Step2.2.3、迭代步骤Step2.2.2得到一组经过加噪的训练集。
4.根据权利要求1所述的基于深度神经网络和跳跃连接的无干净标签图像去噪方法,其特征在于:Step3具体包括以下步骤:
Step3.1、使用U-Net网络结构改进的U-Net++结构;其中从纵向来看继承了U-Net的编码器-解码器结构;编码器结构通过堆叠组合卷积层和池化层来产生不同尺度的卷积特征,在卷积特征X(m,n)和卷积特征X(m+1,n)之间采用步长为2的池化层使特征图减小为原来的二分之一,其中,m为网络深度,n为水平宽度;解码器结构通过邻近插值法和一个2*2的卷积层代替反卷积,好处是不会像反卷积丢失过多的细节信息,能达到良好去噪效果的同时较好地保留图像内容;
Step3.2、在水平方向采用深层特征和浅层特征结合的方法;X(m,n)卷积特征的信息来自于X(m,1)...X(m,n-1)和X(m+1,n-1),其中在解码阶段,卷积特征不仅用到了深层特征,还用到了同深度的所有的卷积特征,大大丰富了特征信息,而同深度的各个特征结合使用的是跳跃连接,这样不仅利于梯度回传加快训练过程,还能使参数更新分布的更加均匀。
5.根据权利要求4所述的基于深度神经网络和跳跃连接的无干净标签图像去噪方法,其特征在于:步骤Step3.1包括:
Step3.1.1、网络结构使用的基本单元是一个拥有两层卷积层和一层防止过拟合的dropout层的卷积块,其中卷积层使用3*3的卷积核,激活函数使用Relu激活函数;
Step3.1.2、网络中的每个节点由卷积块构成,深层卷积块的输入由上一层的卷积块得到的特征图经过Max Pooling操作得到。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于昆明理工大学,未经昆明理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910584613.7/1.html,转载请声明来源钻瓜专利网。