[发明专利]一种基于Transformer的图像压缩方法在审
申请号: | 202210996920.8 | 申请日: | 2022-08-18 |
公开(公告)号: | CN115439565A | 公开(公告)日: | 2022-12-06 |
发明(设计)人: | 李永军;李博;李耀;罗金成;张东明;张大蔚;李超越 | 申请(专利权)人: | 河南大学 |
主分类号: | G06T9/00 | 分类号: | G06T9/00;G06T7/11;G06T5/50;G06N3/08;G06N3/04 |
代理公司: | 郑州联科专利事务所(普通合伙) 41104 | 代理人: | 刘建芳 |
地址: | 475001*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 transformer 图像 压缩 方法 | ||
1.一种基于Transformer的图像压缩方法,其特征在于,所述方法包括以下步骤:
步骤1:构建基于Transformer的深度图像压缩模型,具体的:
步骤1.1:将被压缩图像输入由卷积模块和TF-SPP模块交替堆叠形成的主编码器,进行非线性变换处理,生成被压缩图像的潜在表示;
步骤1.2:结合窗口自注意力机制构建通道自回归熵模型,主要包括超先验编码器、通道调节器,
步骤1.3:将步骤1.2.3中所述的压缩后的潜在表示输入由反卷积模块和TF-SPP模块交替堆叠形成主解码器进行上采样,对被压缩图像进行重建;
步骤2:建立深度图像压缩数据集;首先对数据集中所有图片分别进行随机裁剪成为相同尺寸的图片,裁剪后的所有图片作为图像压缩数据集;然后把图像压缩数据集图片分别按照一定比例作为模型的训练集、测试集、验证集;
步骤3:训练步骤1所属的构建的基于Transformer的深度图像压缩模型,具体的:
步骤3.1:设置训练参数;
步骤3.2:将步骤2建立的深度图像压缩数据集送入步骤1所述基于Transformer的深度图像压缩模型并按照步骤3.1所设定的参数进行训练;
步骤3.3:利用Adam随机优化算法对步骤3.2所训练的基于Transformer的深度图像压缩模型进行随机梯度下降来不断优化损失函数,根据训练集和验证集交叉验证的损失变化趋势,直至损失变化逐步趋于稳定的状态,确定最优权重;
步骤4:将步骤2.2所述的测试集输入步骤3.3训练好的基于Transformer的深度图像压缩模型,测试基于Transformer的深度图像压缩模型的性能;
步骤5:评估模型,具体的:
根据步骤4的测试结果从PSNR即峰值信噪比、MS-SSIM即多尺度结构相似性和压缩比对步骤3训练的基于Transformer的深度图像压缩模型进行评估;
步骤6:判断步骤5中基于Transformer的深度图像压缩模型的评估结果的PSNR即峰值信噪比、MS-SSIM即多尺度结构相似性和压缩比是否满足实际应用需求,若基于Transformer的深度图像压缩模型满足现实场景中的图像压缩应用需求,则执行步骤8,否则,执行步骤7;
步骤7:调整步骤3中基于Transformer的深度图像压缩模型训练时的学习率,在重复迭代训练到200次时将学习率缩小十倍,在重复迭代训练到300次时将学习率再缩小十倍,并跳转至步骤3重新训练:
步骤8:将步骤6中满足实际应用需求的基于Transformer的深度图像压缩模型用于现实场景中的图像压缩。
2.根据权利要求1中所述的一种基于Transformer的图像压缩方法,其特征在于:步骤1.1所述的主编码器采用了TF-SPP特征提取机制,分为Calculate attention和Fusion两部分,具体的步骤1.1具体包括以下步骤:
步骤1.1.1:Calculate attention操作,具体的:
将输入的特征图转换成序列的形式并分别乘以系数矩阵WQ,WK,WV得到输入的三个特征向量Q,K,V;将Q,K,V三个向量组合并分别输入head为8,10,12的三个Transformer block并进行自注意力计算得到输出特征图Zi,这里i=1,2,3,Z1、Z2、Z3分别代表Transformerblock的三个输出特征图,Zi的计算如公式(1)所示
其中,Softmax是归一化函数,Zi为Transformer block的三个输出特征图,Qi,Vi,Ki为输入的三个特征向量,为输入的特征向量K的转置,dim为Transformer block输出的维度;
步骤1.1.2:Fusion操作,具体的:
将输入的特征图利用1×1的卷积核进行卷积,并对步骤1.1.1所述三个输出Z1、Z2、Z3拼接在一起利用1×1的卷积核进行卷积,保持输出特征图的通道数与输入特征图的通道数一致,得到融合后的特征图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南大学,未经河南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210996920.8/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种PET阻燃增强材料及其制备方法和应用
- 下一篇:一种电力低压开关装置
- 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置
- 一种基于Transformer模型自然场景文字识别方法
- 一种深度Transformer级联神经网络模型压缩算法
- 点云分割方法、系统、介质、计算机设备、终端及应用
- 基于Transformer的中文智能对话方法
- 一种基于改进Transformer模型的飞行器故障诊断方法和系统
- 一种基于Transformer模型的机器翻译模型优化方法
- 基于Transformer和增强交互型MPNN神经网络的小分子表示学习方法
- 基于U-Transformer多层次特征重构的异常检测方法及系统
- 基于EfficientDet和Transformer的航空图像中的飞机检测方法
- 彩色图像和单色图像的图像处理
- 图像编码/图像解码方法以及图像编码/图像解码装置
- 图像处理装置、图像形成装置、图像读取装置、图像处理方法
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像解密方法、图像加密方法、图像解密装置、图像加密装置、图像解密程序以及图像加密程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序以及图像解码程序
- 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、以及图像解码程序
- 图像形成设备、图像形成系统和图像形成方法
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序
- 图像编码装置、图像编码方法、图像编码程序、图像解码装置、图像解码方法及图像解码程序