[发明专利]基于强化学习的VVC的快速帧内编码方法有效
申请号: | 202010933234.7 | 申请日: | 2020-09-08 |
公开(公告)号: | CN111988628B | 公开(公告)日: | 2023-10-17 |
发明(设计)人: | 徐艺文;邢开应;林杰廉;吴陆狄;郑权斐 | 申请(专利权)人: | 福州大学 |
主分类号: | H04N19/593 | 分类号: | H04N19/593;G06N3/092;H04N19/96 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 强化 学习 vvc 快速 编码 方法 | ||
1.一种基于强化学习的VVC的快速帧内编码方法,其特征在于,包括如下步骤:
步骤S1、基于强化学习理论和Q学习的深度强化学习模型,即DQN模型,确定模型参数,目标神经网络的价值反馈函数、损失函数;
步骤S2、采用离线训练方法,训练强化学习模型;
步骤S3、利用步骤S2中训练好的强化学习模型,对编码单元CU的划分模式进行预测,并选择最优CU划分模式,以跳过未被选择的CU划分模式,从而节省帧内编码的编码时间。
2.根据权利要求1所述的基于强化学习的VVC的快速帧内编码方法,其特征在于,所述步骤S1具体实现如下:
步骤S11、根据DNQ模型,以及结合帧内编码的实际情况,由于CU进行划分后会有多个子CU,因此将目标神经网络的价值反馈函数定义如下:
其中,N表示采用划分模式后得到的子CU个数;S表示在不同的划分模式下所对应的CU状态;A表示在状态S下可执行的划分动作,在VVC快速帧内编码中,每个CU对应着四叉树划分、二叉树水平划分、二叉树垂直划分、三叉树水平划分、三叉树垂直划分五种划分动作模式;Q(S,A)表示在状态S下,执行动作A之后的价值反馈函数;S′n表示第n个CU在状态S执行划分动作A之后的下一个状态,即CU划分之后的状态;A′n表示状态为第n个CU在状态S′n下,可继续执行的划分动作;Q′(S′n,A′n)表示在S′n状态下,执行A′n动作后的价值反馈函数,该函数的引入,使得对当前状态S进行价值估计时,可以考虑到未来的状态价值对当前的影响;γ是一个衰减因子,范围为0到1,且γ越大,表示下一个CU的状态对当前CU状态的影响越大;R为状态S下执行动作A所获得的即时反馈值,R定义如下:
R=Rintra-RA
其中,Rintra表示CU帧内预测时的率失真代价值,即RD cost值;RA表示CU帧内预测时,采用划分模式A时的RD cost值;
对于强化学习来说,损失函数用于衡量经过学习所得到的模型性能的好坏,损失函数L的定义如下:
L=(Q′(S,A)-Q(S,A))2
其中,Q′(S,A)为目标函数;损失函数的引入,希望DQN网络在训练中所取得的价值反馈函数不断逼近目标函数;
步骤S12、基于步骤S11确定的价值反馈函数,选取3个与编码划分模式相关的编码参数(s1-s3)以及8个与视频残差图像相关的参数(s4-s11),作为状态S中的状态特征,s1-s11的具体定义分别为:当前CU的帧内预测RD cost值、量化参数Qp、CU大小、CU亮度预测残差图的像素值方差、CU采取四叉划分后4个子CU块像素值方差的均值、CU亮度预测残差图采取二叉树水平划分后4个子CU块像素值方差的均值、CU亮度预测残差图采取二叉树垂直划分后,4个子CU块像素值方差的均值、CU亮度预测残差图采取三叉树水平划分后4个子CU块像素值方差的均值、CU亮度预测残差图采取三叉树垂直划分后4个子CU块像素值方差的均值、CU亮度预测残差图的Sobel水平梯度均值、CU亮度预测残差图的Sobel垂直梯度均值;其中s10及s11的计算公式分别如下:
其中,W和H分别表示CU的长和宽;Gx及Gy分别表示Sobel算子水平及垂直边缘检测的图像,其定义如下:
其中,M代表CU的亮度预测残差图矩阵;
步骤S13、基于步骤S12,采用简单的3层全连接神经网络层作为DQN的动作价值Q及Q′的预测网络结构,该3层神经网络包括1个输入层、1个隐含层、1个输出层,每层对应的神经元数目分别为11、16、5,预测网络输入为步骤S12中定义的11个状态值,输出为5种划分模式对应的实际动作价值反馈,即Q值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010933234.7/1.html,转载请声明来源钻瓜专利网。