[发明专利]一种基于密集深度学习的暗光图像自适应增强方法在审
| 申请号: | 202110251337.X | 申请日: | 2021-03-08 |
| 公开(公告)号: | CN112767286A | 公开(公告)日: | 2021-05-07 |
| 发明(设计)人: | 许鹏程;年晓红 | 申请(专利权)人: | 中南大学 |
| 主分类号: | G06T5/00 | 分类号: | G06T5/00;G06K9/46;G06N3/04;G06N3/08 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 410083 湖南*** | 国省代码: | 湖南;43 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 密集 深度 学习 图像 自适应 增强 方法 | ||
本发明公开了一种基于密集深度学习的暗光图像自适应增强方法,属于计算机视觉领域。本发明提出的密集深度卷积神经网络模型包含了四个子网络模型,可以实现对暗光图像局部自适应照度增强、噪声消除、失真修复、语义修复。本发明首先将暗光图像通过分解网络进行反射率图和照度图的分解;接着结合经MAMI模块得到的照度图指导信息和残差思想,来学习分解得到的反射率图中空间较小的噪声分量,进行降噪;然后通过两层的密集卷积神经网络和带语义恢复项的损失函数来恢复反射率图的语义信息,修复颜色失真等;将待增强照度图与目标照度图的比例信息和待增强照度图的梯度信息引入照度调节网络中,实现灵活调节全局亮度和自适应增强局部亮度;最后将增强后的照度图与恢复后的反射率图合成得到目标图像。此发明能够自适应调节图像亮度的同时,去除噪声、修复失真和语义,使得增强后的图像不仅在图像美学评价指标上表现优异,在很多计算机视觉任务中也表现优于其他方法。
技术领域
发明涉及一种基于密集深度学习的暗光图像自适应增强方法,用于对暗光环境下的图像进行语义恢复和自适应增强,实现暗光图像的光照增强、噪声消除、失真修复、语义修复,属于计算机视觉领域。
背景技术
近年来,互联网和智能终端等软硬件飞速发展,图像成为一个庞大而重要的数据资源。众所周知,图像信息在人们的生产生活中发挥着巨大的作用,它作为重要的信息载体,促进着信息的交流,帮助人们更直观的认知这个世界。但是在实际生活中,由于受到自然条件以及技术条件的限制,海量的图像数据中存在着大量暗光图像。这些暗光图像中存在亮度低、可视性差、噪声、失真等问题,难以达到人们对图像质量的需求,更是严重影响了后续的计算机视觉算法的使用,如目标检测、实例分割等。
为了解决这些问题,有很多暗光图像增强技术已经被提出来了,有基于滤波的方法,有基于分解的方法,也有基于深度学习的方法。虽然这些方法在感官上提升了图像的质量,却忽略了“机器”的感受。这些方法在增强图像可视性的同时,引入各种非自然效应,例如局部过度增强、颜色失真,最致命的是这些方法都忽略了图像语义的恢复,这是计算机视觉算法理解图像的关键所在。
因此,解决暗光图像的自适应增强和语义恢复变成重中之重。深度学习技术随着硬件不断的发展也迅速崛起,利用不断加深的卷积神经网络来实现复杂映射,并通过反向梯度传播来不断优化这个网络模型,最终得到一个准确、复杂的映射。深度学习充分利用大量数据和硬件算力,能够不断迭代更新,且不需要精准的先验模型,这使得自适应增强暗光图像,消除局部过度增强,恢复图像语义变成可能。
因此,为了让暗光环境下的图像在计算机视觉任务中也能被广泛、有效的使用,基于深度学习的暗光图像的自适应增强研究变得十分重要和有意义。
发明内容
本发明的目的是设计一种基于密集深度学习的暗光图像自适应增强方法,旨在解决局部过度增强、失真等非自然效应和恢复图像深层语义,使得暗光图像不仅在人类观感指标上得到提升,在计算机视觉算法中也能被轻易使用。
本发明的技术方案为:首先准备训练数据集、验证数据集、测试数据集;然后进行密集深度卷积神经网络模型的设计,包括分解网络,降噪网络,恢复网络,梯度自适应照度调节网络;然后设计用于训练模型的损失函数;训练分解网络得到反射率和照度图,训练降噪网络得到降噪后的反射率图,训练回复网络得到语义恢复、失真修复的反射率图,训练梯度自适应照度调节网络得到可灵活调节整体照度和局部照度的照度图;最后将修复后的照度图和反射率图合成。具体过程如下:
数据集准备阶段,用于训练网络模型的数据集是由正常光照图像和低光照图像的图像对形式构成的,正常光照下的图像作为训练的标签,低光照图像作为网络模型的输入。保证数据集质量的同时,为节约时间成本,一部分图像对中的低光照图像是经过相机调节曝光程度后拍摄的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110251337.X/2.html,转载请声明来源钻瓜专利网。





