[发明专利]基于自适应下采样和深度学习的图像压缩方法有效
申请号: | 201811439805.0 | 申请日: | 2018-11-29 |
公开(公告)号: | CN109495741B | 公开(公告)日: | 2023-03-31 |
发明(设计)人: | 何小海;张达明;任超;吴晓红;熊淑华;滕奇志;王正勇 | 申请(专利权)人: | 四川大学 |
主分类号: | H04N19/103 | 分类号: | H04N19/103;H04N19/124;H04N19/147;H04N19/42;H04N19/70 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 采样 深度 学习 图像 压缩 方法 | ||
本发明公布了一种基于基于自适应下采样和深度学习的图像压缩方法。主要包括以下步骤:在编码器端,为待编码的原始图像设计了多种不同的下采样模式和量化模式,然后通过率失真优化算法从多种模式中选择最优的的下采样及量化模式,最后待编码图像将在选择的最优模式下进行下采样和JPEG编码;在解码器端,采用基于卷积神经网络的超分辨率重建算法对解码后的下采样图像进行超分辨率重建,最后利用BM3D算法在超分辨率重建后进一步抑制残留的压缩效应,得到最终的解码图像。实验结果表明,相比于主流的编解码标准和先进的编解码方法,所提出的框架能有效地提升编码图像的率失真性能,并能获得更好的视觉效果。
技术领域
本发明涉及图像压缩和图像编码技术,具体涉及一种基于自适应下采样和深度学习的图像压缩方法,属于图像通信领域。
背景技术
人类活动中绝大部分的信息是通过视觉进行感知的。图像作为视觉信息的载体,具有形象直观、信息量大、易于理解等优点。然而在实际的图像获取过程中,受限于传输带宽和存储容量,图像或多或少都采取有损压缩方式。其中适用于静止图像的主流压缩编码标准有JPEG和JPEG2000,均由联合图像专家组分别于上世纪90年代初和本世纪初提出。
由于具有良好的压缩性能和较低的复杂度,JPEG已被广泛应用于有损图像压缩的领域。然而在有限码率下,若直接采用JPEG对图像进行压缩,图像数据量太大,分配给每个量化后的离散余弦变换(discrete cosine transform,DCT)系数的编码比特数较少,这将造成解码图像的严重失真。为提高低码率段的编码性能,基于下采样的压缩方法得到了广泛研究,其核心思想是在编码之前对图像进行下采样,从而减少了数据量,使下采样后得到的每一个像素都可分配到更多比特数。然而,现有的基于下采样的压缩方法,在下采样和编码过程中大多无法有效保持图像细节,还有进一步的提升的空间。
超分辨率重建的目的是从已知低分辨率图像获取相应的高分辨率图像。基于学习的图像超分辨率技术近些年来得到了越来越多的关注,其中基于深度学习的超分辨率方法因其相较传统超分辨率技术具有更高精确度和更快的重建速度等优点而受到广泛研究。
发明内容
本发明提出的一种基于适应下采样和深度学习的图像压缩方法,相比于主流的编解码标准和先进的编解码方法,本方法能有效地提升图像的率失真性能,并能获得具有更好视觉效果的解码图像。
本发明所提出的一种基于适应下采样和深度学习的图像压缩方法,主要包括以下操作步骤:
(1)为待编码的原始图像设计多种不同的下采样模式和量化模式;
(2)通过率失真优化算法从多种模式中选择最优的下采样及量化模式;
(3)将待编码图像在选择的最优模式下进行下采样和JPEG编解码;
(4)采用基于卷积神经网络的超分辨率重建算法对解码后的任意下采样模式下采样的图像进行超分辨率重建;
(5)利用BM3D算法在超分辨率重建后进一步抑制残留的压缩效应,得到最终的解码图像。
附图说明
图1是本发明基于自适应下采样和深度学习的图像压缩方法的流程框图
图2是基于深度学习的压缩图像超分辨率算法原理框图
图3是设计的超分辨率重建网络模型结构框架
图4是对“barbara”测试图像进行JPEG及其他三种方法编解码及本方法重建后图像的率失真性能比较
图5是对“bike”测试图像进行JPEG及其他三种方法编解码及本方法重建后图像的率失真性能比较
图6是“barbara”原图与码率同为0.2bpp时,本发明重建后图像与JPEG及其他三种方法解码图像的主观视觉效果比较
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811439805.0/2.html,转载请声明来源钻瓜专利网。