[发明专利]基于神经网络优化的质量SHVC编码方法在审
| 申请号: | 202310289471.8 | 申请日: | 2023-03-22 |
| 公开(公告)号: | CN116320398A | 公开(公告)日: | 2023-06-23 |
| 发明(设计)人: | 汪大勇;邝毅;陈柳林;黄令;梁鹏;许亚庆;储浩 | 申请(专利权)人: | 重庆邮电大学 |
| 主分类号: | H04N19/103 | 分类号: | H04N19/103;H04N19/20;H04N19/107 |
| 代理公司: | 重庆辉腾律师事务所 50215 | 代理人: | 王诗思 |
| 地址: | 400065 重*** | 国省代码: | 重庆;50 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 神经网络 优化 质量 shvc 编码 方法 | ||
1.一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述方法包括:
S1:根据已编码信息,计算得到当前视频编码单元的深度可能性和当前模式的模式可能性;
S2:遍历ILR层间模式,得到当前ILR层间模式的残差;
S3:基于当前ILR层间模式的残差,根据当前模式的模式可能性所处的区间,采用对应区间的第一神经网络模型,预测当前ILR层间模式是否为最优模式;
S4:若当前ILR层间模式不是最优模式,则遍历Intra帧内模式;根据当前模式的模式可能性和当前预测单元的大小,采用对应区间的第二神经网络模型,预测得到候选列表;按照所述候选列表完成率失真优化遍历;转至步骤S6;
S5:若当前ILR层间模式是最优模式,则跳过Intra帧内模式;转至步骤S6;
S6:根据当前视频编码单元的深度可能性的区间,采用对应区间的第三神经网络模型预测当前深度;判断是否跳过当前预测深度继续划分,若选择划分,则返回步骤S1继续计算下一个视频编码单元的深度可能性,直至达到预设深度;若选择不划分,当前视频编码单元的深度遍历结束。
2.根据权利要求1所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述步骤S1中,当前视频编码单元的深度可能性的计算公式表示为:
其中,fd(cd)表示当前视频编码单元的深度可能性,cd是当前编码单元的深度级别之一,fd(q),q∈[0,3]分别代表了当前编码单元划分为第q个深度的可能性;p(cd)表示当前编码单元的深度级别为cd的概率。
3.根据权利要求1所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述步骤S1中,当前模式的模式可能性的计算公式表示为:
其中,fm(cm)表示当前模式的模式可能性,cm是当前编码单元使用的模式可能性之一,fm(mILR)表示通过当前编码单元的相邻块计算得出的ILR层间模式的模式可能性,fm(mIntra)表示通过当前编码单元的相邻块计算得出的Intra帧内模式的模式可能性;p(cm)是当前编码单元使用模式cm的概率。
4.根据权利要求1所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述步骤S3包括根据视频序列的四种大小尺寸确定四种第一神经网络结构;每种第一神经网络结构均包括三层卷积层和三层全连接层,最后一层卷积层和最初一层全连接层通过展平层连接,在所有全连接层中加入量化参数、率失真值和当前模式的模式可能性;将当前ILR层间模式的模式可能性所处的区间输入到当前区间最优的第一神经网络模型中,对当前ILR层间模式的残差进行均值池化处理;预测当前ILR层间模式是否为最优模式。
5.根据权利要求1所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述步骤S4包括根据视频序列的预测单元模式选择确定四种第二神经网络结构;每种第二神经网络结构均包括三层卷积层和三层全连接层,最后一层卷积层和最初一层全连接层通过展平层连接,在所有全连接层中加入量化参数QP、当前Intra帧内模式的模式可能性以及层间相关系数;将当前预测单元的大小所处的区间输入到当前区间最优的第二神经网络模型中,预测候选列表。
6.根据权利要求5所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,所述步骤S4中,当前Intra帧内模式的模式可能性的计算公式表示为:
其中,fp(cp)代表当前Intra帧内模式的模式可能性大小,cp是当前编码单元使用的帧内模式可能性之一,fp(i)代表最终选用帧内模式i的可能性;p(cp)是当前编码单元使用帧内模式cp的可能性。
7.根据权利要求5所述的一种基于神经网络优化的质量SHVC编码方法,其特征在于,第一层卷积层中,采用三个不同规格的卷积核,包括一个对称卷积核和两个非对称卷积核。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于重庆邮电大学,未经重庆邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310289471.8/1.html,转载请声明来源钻瓜专利网。





