[发明专利]一种基于生成对抗网络的水下图像去模糊方法在审
| 申请号: | 202210539714.4 | 申请日: | 2022-05-18 |
| 公开(公告)号: | CN114841890A | 公开(公告)日: | 2022-08-02 |
| 发明(设计)人: | 张冰;崔博文;赵强 | 申请(专利权)人: | 江苏科技大学 |
| 主分类号: | G06T5/00 | 分类号: | G06T5/00;G06N3/04;G06N3/08 |
| 代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 向文 |
| 地址: | 212003 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 生成 对抗 网络 水下 图像 模糊 方法 | ||
本发明公开了一种基于生成对抗网络的水下图像去模糊方法,包括:获取水下退化图像与清晰图像作为训练样本,对改进后的DeblurGAN网络进行训练,获取到优化模型;将需要处理的水下退化图像输入训练好的优化模型之中,得到清晰图像;将得到的清晰图像和原始退化图像进行对比,分析总结出优化模型的准确度。本发明通过提升网络的学习能力来进一步改善生成图像的分辨率,进一步提取其细节,使得图像特征尽可能细节化和丰富化,避免了特征信息的丢失,生成的处理过后的图像在去除模糊的基础上,细节更加完善,能够有效去除水下图片噪点和改善细节模糊问题,提升了对于水下图像的去模糊效果。
技术领域
本发明涉及深度学习和图像处理技术领域,具体涉及一种基于生成对抗网络的水下图像去模糊方法。
背景技术
水下图像是海洋信息的重要载体,而海洋信息的获取、传输和处理等理论技术对合理开发、利用和保护海洋资源至关重要。但是由于水下复杂的成像环境和光在水下传播时会出现吸收和散射的情况,导致水下图像往往出现色偏、对比度低、模糊、光照不均匀等现象。因此,人们在海底直接拍摄所获得的图像往往是退化的图像,而退化的图像无法满足实际应用的需求,严重的影响了水下图像的进一步使用,所以需要对退化的水下图像进行画质改善,提高图片清晰度,降低图片上的噪声对水下图像进一步使用的影响。
随着水下图像增强逐渐成为热门的研究领域,在现有的图像增强算法的基础上,提出了一系列专门针对水下图像的增强方法。这些方法大致可以分为两类:一类是基于非物理模型的增强方法,基于非物理模型的方法不依赖水下光学成像数学模型,通过调整图像的像素值来改善视觉质量;第二类是基于物理模型的增强方法,基于物理模型的方法是对水下图像退化过程进行建模,通过估计参数模型,反演退化获得改善画质的水下图像。尽管现有的水下图像增强方法众多,但大多数方法仍具有一定的局限性,难以兼顾恢复图像的色度与清晰度。
发明内容
发明目的:为了克服现有技术中存在的水下图像出现噪点、细节模糊和图像模糊等问题,提供一种基于生成对抗网络的水下图像去模糊方法,其通过提升网络的学习能力来进一步改善生成图像的分辨率,进一步提取其细节,使得图像特征尽可能细节化和丰富化,避免了特征信息的丢失,生成的处理过后的图像在去除模糊的基础上,细节更加完善,能够有效去除水下图片噪点和改善细节模糊问题,提升了对于水下图像的去模糊效果。
技术方案:为实现上述目的,本发明提供一种基于生成对抗网络的水下图像去模糊方法,包括如下步骤:
S1:获取水下退化图像与清晰图像作为训练样本,对改进后的DeblurGAN网络进行训练,获取到优化模型;
S2:将需要处理的水下退化图像输入训练好的优化模型之中,得到清晰图像。
进一步地,所述步骤S1中DeblurGAN网络包括生成器网络和判别器网络,对于DeblurGAN网络的改进方法包括如下:
修改原始的DeblurGAN网络模型中生成器网络的激活函数:将原始的DeblurGAN网络模型中生成器网络的激活函数ReLU替换为SeLU;
在保持原始的DeblurGAN网络基础上,分别在生成器网络的九个ResBlock结构前后各加入卷积核为3×3的卷积层、归一化层和激活层,即加深一层特征提取;
在对判别器网络进行损失训练时,增加了梯度惩罚项;
在原始的DeblurGAN网络模型中引入生成图像和清晰图像的梯度L1距离作为生成器损失的正则项约束。
进一步地,所述激活函数SeLU的公式为:
其中λ=1.0507,α=1.6732,x表示输入,α和λ表示超参数;
激活函数SeLU保留了小于0输入的计算,提供了丰富的特征,并且经过该激活函数后样本的分布自动归一化到0均值和单位方差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏科技大学,未经江苏科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210539714.4/2.html,转载请声明来源钻瓜专利网。





