[发明专利]一种基于超先验架构的SAR图像压缩方法有效
申请号: | 202111597113.0 | 申请日: | 2021-12-24 |
公开(公告)号: | CN114386595B | 公开(公告)日: | 2023-07-28 |
发明(设计)人: | 邸志雄;陈旋;吴强;冯全源 | 申请(专利权)人: | 西南交通大学 |
主分类号: | H04N19/42 | 分类号: | H04N19/42;G06N3/08;G06N3/04;G06F16/174 |
代理公司: | 成都信博专利代理有限责任公司 51200 | 代理人: | 舒启龙 |
地址: | 610031 四川省*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 先验 架构 sar 图像 压缩 方法 | ||
本发明公开了一种基于超先验架构的SAR图像压缩方法,具体为:构建自编解码器卷积网络,自编解码器卷积网络包括编码器、算术编解码器和解码器;超先验网络的熵建模,超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模;失真优化,模型根据损失函数进行反向传播,不断地训练和优化,取得更好的压缩效果。本发明对潜在空间中的变量进行熵建模,根据不同的压缩对象进行调整进一步地提高压缩率,通过设计和改进网络结构,提升网络的特征提取和泛化能力,兼顾SAR图像的压缩率和压缩质量。
技术领域
本发明属于图像压缩技术领域,尤其涉及一种基于超先验架构的SAR图像压缩方法。
背景技术
合成孔径雷达(SAR)图像在各种遥感应用中越来越重要。然而,随着传输图像数据的能力迅速提高,而地面站的储存速度并没有达到相应的增长率。大多数图像压缩算法依赖于准确的信号表示,基于离散小波变换(DWT)的SAR图像压缩算法已经得到了广泛的研究。然而,由于SAR图像包含丰富的纹理,DWT以及传统的压缩算法JPEG,JPEG2000也一样不能获得有效的表示。因此,在保持SAR图像质量的同时,开发出一种能够获得更高压缩比的压缩算法具有重要的研究意义。
近几年,基于神经网络的图像压缩方法研究在快速发展。神经网络具有较好的特征提取能力和高维数据的处理能力,可以充分挖掘图像的本质信息,提取关键的特征,剔除无用的冗余信息,这是神经网络具有的独有优势。
发明内容
本发明旨在保证SAR图像的压缩质量的同时,尽量提高SAR图像的压缩比。为此,本发明提供一种基于超先验架构的SAR图像压缩方法。
本发明的一种基于超先验架构的SAR图像压缩方法,包括以下步骤:
步骤1:自编解码器卷积网络的构建。
自编解码器网络分为三大部分:一部分是编码器,编码器通过多层卷积完成对SAR图像的压缩编码,调整卷积的层数、步长以及通道数控制相应的压缩比;第二部分是算术编解码器,算术编解码器根据图像信号的分布,生成二进制流,进一步压缩比特数;最后一部分是解码器,解码器通过多层的转置卷积完成对编码图像的解码。
步骤2:超先验网络的熵建模。
为了实现适应性的熵建模,需要对不同的图片预测其信号分布,为此,选择一个参数化的先验模型,由超先验网络预测得到超参数;超先验网络的熵建模分为四个部分,分别为超参编码器、超参算术编解码器、超参解码器、概率模型;同时本模型最后使用了单高斯混合模型对均值和方差进行预测,来模拟信号分布,实现熵建模。
步骤3:失真优化。
损失函数由两部分组成,第一部分为失真率,具体为通过自编码器前向传播压缩恢复后的图像与原始图像的均方误差,第二部分为码率,由编码器得到的信号y的码率以及超参编码器得到的边信息z的码率组成;模型根据损失函数进行反向传播,不断地训练和优化。
进一步的,自编解码器卷积网络的编码器、算术编解码器和解码器具体为:
编码器:
卷积层:设置通道数为192,卷积核大小为3,步长为2,进行填充;每次经过卷积层之后,从原图像中提取得到新的192张特征图,每张特征图高宽变为原图的二分之一,大小变为原来的四分之一;多次卷积后达到数据压缩的效果,编码器最后一层的通道数为320,通过调整其取值改变压缩程度。
激活层:采用一对广义可除归一化层GDN作为激活函数,对每一位数据进行非线性映射,维持梯度,GDN激活函数公式如下:
其中,xi表示输入的第i层特征图,βi和γi是需要学习的参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学,未经西南交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111597113.0/2.html,转载请声明来源钻瓜专利网。