[发明专利]基于深度稀疏编码的自然图像压缩感知重建方法有效
申请号: | 201710306725.7 | 申请日: | 2017-05-04 |
公开(公告)号: | CN107154064B | 公开(公告)日: | 2019-07-23 |
发明(设计)人: | 董伟生;高海涛;石光明;谢雪梅;李甫 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T11/00 | 分类号: | G06T11/00 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 自然图像 变换系数 观测向量 重建 观测数据 模型参数 稀疏编码 压缩感知 迭代阈值法 正交变换域 测试 计算参数 图像变换 图像分块 系数重建 逆变换 上变换 残差 可用 重构 恢复 保存 清晰 重复 更新 | ||
本发明公开了一种基于深度稀疏编码的自然图像压缩感知重建方法,主要解决现有方法难以快速、精确的用系数重建自然图像的问题。其实现方案是:1)对图像分块并在正交变换域上变换,计算变换系数的观测向量;2)用迭代阈值法求出观测向量的恢复变换系数,并更新计算参数;3)计算2)中变换系数的观测向量,求出其与1)中观测向量的残差量;4)重复步骤1)—3)得到训练好的模型,并保存模型参数;5)将测试观测数据与模型参数输入到训练好的模型,得到与测试观测数据对应的图像变换系数;6)对5)中的变换系数进行逆变换,得到最终重建的自然图像。本发明重建的自然图像清晰,且重构速度很快,可用于对自然图像的恢复。
技术领域
本发明属于图像处理领域,具体涉及一种自然图像压缩感知重建方法,可用于采样的自然图像恢复。
背景技术
随着媒体技术的发展,海量图像数据在实时传输、存储方面都面临着巨大的挑战。压缩感知技术的提出使得这些问题在理论上开辟了新的思路,令问题得到了有效解决。压缩感知理论认为,若信号在某一种变换基下具有稀疏性,则可以对该信号进行随机投影观测,并以较少的观测值通过信号的先验信息对其进行精确重构,它的模型是在求解观测数据保真度约束下的范数最优化问题。
针对上述的压缩感知模型,不同的范数约束代表了不同的重构算法和重构性能。若采用范数,通常采用正交匹配追踪OMP算法重构。尽管范数满足压缩感知模型最初的想法,即寻找具有最小稀疏度的优化问题的解,但由于其是一个NP-Hard问题,导致解的精度往往不高。因此有学者提出利用范数替代范数使其变为凸优化问题,并提出了一系列基于迭代的重构算法:迭代阈值收缩算法ISTA、快速迭代阈值收缩算法FISTA、近似信息传递算法AMP等。上述算法的提出虽然使问题得到进一步解决,但它们都是基于优化理论的解决算法,仍然存在着重构精度有限、迭代过程复杂、收敛速度慢等诸多问题。
近年来随着深度学习技术的发展,开始有学者提出基于卷积神经网络的压缩感知重构方法Recon-Net,这种方法虽然解决了迭代过程复杂的问题,但是仍存在两个问题:1)直接应用模型得到的重构图像噪声较大,必须经过去噪才能得到质量较好的重构图像;2)模型在训练时收敛速度较慢,即使在高性能计算机上,训练模型也需要一天的时间。
发明内容
本发明的目的在于针对传统基于优化的重建方法和当前基于深度学习的重建方法存在的问题,提出一种基于深度稀疏编码的自然图像压缩感知重建方法,以简化模型复杂度,降低模型的训练时间,提高图像的重构速度和重构效果。
本发明的技术方案是:通过利用自然图像在变换域上的稀疏先验信息对其进行压缩感知编码,再结合基于学习的近似信息传递算法LAMP和递归神经网络RNN模型,实现将图像编码信息的恢复重建,其实现步骤包括如下:
(1)模型训练步骤:
(1a)输入多张图片,并从这些图片中取n个训练图像块X;
(1b)对(1a)中的n个训练图像块X进行压缩感知观测,得到n个观测系数Y,并用这些训练图像块与对应的观测系数组成n个训练样本对:{(X=x1,x2,...,xn-1,xn),(Y=y1,y2,...,yn-1,yn)};
(1c)设置模型训练次数K=100,每次从Y、X中随机选取r个训练样本yr、xr,并采用梯度下降法进行训练,每次训练的截止条件flag为迭代50次模型误差值不衰减;
(1d)设置稀疏编码算法的参数,初始化迭代次数T=10,并令初始变换系观测数据残差vt=y,其中为第t次迭代计算的训练图像块变换系数,vt为第t次迭代的观测残差;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710306725.7/2.html,转载请声明来源钻瓜专利网。