[发明专利]一种基于集成学习的JPEG图像负载定位方法在审
| 申请号: | 202211015472.5 | 申请日: | 2022-08-24 |
| 公开(公告)号: | CN115311352A | 公开(公告)日: | 2022-11-08 |
| 发明(设计)人: | 乔通;曾攀;余可 | 申请(专利权)人: | 杭州电子科技大学 |
| 主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T5/10;G06N20/20;G06V10/764;G06V10/774 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 310018 浙江省杭州*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 集成 学习 jpeg 图像 负载 定位 方法 | ||
1.一种基于集成学习的JPEG图像负载定位方法,其特征在于,包括以下步骤:
步骤1、收集N幅基于同一嵌入位置密钥并且使用相同DCT域隐写算法嵌入的载密JPEG图像;
步骤2、对所有图像进行霍夫曼解码,得到量化的DCT系数矩阵;将每一幅图像中所有系数块相同位置的系数组合,得到共64幅同频子图;
步骤3、针对步骤2中载密同频子图提取8维残差特征;
步骤4、针对步骤2中载密同频子图提取72维SPAM特征;
步骤5、将步骤3的8位残差特征向量与步骤4的72维SPAM特征向量拼接成80维特征向量;
步骤6、将使用轻量梯度提升树(LGBM)、支持向量机(SVM)、梯度提升树(GBM)和逻辑回归(LR)四个分类器作为基学习器,使用逻辑回归(LR)作为元学习器,使用堆叠法(Stacking)结合K折交叉验证进行模型融合;使用步骤5中的80维特征向量进行训练得到最终的模型。
2.根据权利要求1所述的一种基于集成学习的JPEG图像负载定位方法,其特征在于,所述的步骤3包括以下子步骤:
步骤3.1、使用小波滤波器得到对应的估计载体,由原载密同频子图与对应的估计载体相减得到残差;
步骤3.2、使用2种不同的局部方差公式与2种不同的权重计算方式得到共4种权重;
步骤3.3、将步骤3.1中的残差与步骤3.2中的4种权重相乘得到4种加权残差,再使用2种不同的归一化方式得到最终的8维残差特征向量。
3.根据权利要求2所述的一种基于集成学习的JPEG图像负载定位方法,其特征在于,所述的步骤3.2中的2种不同的局部方差公式包括:
局部方差公式1如下:
其中为第n幅载密图像的第t幅同频子图像在位置(i,j)处的3×3邻域内的DCT系数,为对应位置的载体估计系数;
局部方差公式2如下:
区别于公式1,公式2的计算方法为邻域DCT系数减去同一固定的系数,该系数为邻域中心位置对应的载体估计系数;
通过公式1和公式2分别得到局部方差和
4.根据权利要求1所述的一种基于集成学习的JPEG图像负载定位方法,其特征在于,所述的步骤4包括以下子步骤:
步骤4.1、计算每个位置在8个方向上的邻接DCT系数差分矩阵;
步骤4.2、将邻接DCT系数差分矩阵马尔可夫建模,取差分门限为4:统计差分取值分别为-4,-3,···,0,···,3,4的数目,每个位置可以得到72个转移概率;
步骤4.3、统计所有N副图像中每个位置的DCT系数非0的次数作为该位置的有效嵌入次数;
步骤4.4、将步骤4.2中的转移概率除以步骤4.3中对应的有效嵌入次数,得到72维SPAM特征向量。
5.根据权利要求1所述的一种基于集成学习的JPEG图像负载定位方法,其特征在于,所述的步骤6包括以下子步骤:
步骤6.1、将包含m个特征x和对应标签y的输入数据集定义为基学习器记为hb,元学习器记为hm,融合分类器记为H;
步骤6.2、在第一层的基学习器上使用交叉验证生成新数据集作为第二层元学习器的输入;将原始数据集d随机划分为数量相等的K部分,每部分称作一折,d={d1,d2,···,dK};
步骤6.3、在数据集中选择在之前的循环中未被选择过的一折作为测试集,其余K-1折作为训练集,使用K-1折训练第一层的四个基学习器得到
步骤6.4、将未参与训练的一折测试集输入训练好的基学习器获得预测结果,将预测结果连同原始数据作为新的数据子集d`k={x`i,yi},其中
步骤6.5、循环进行K轮后结束,将循环中生成的新数据子集以堆叠方式合并为新数据集d`={d`1,d`2,···,d`K},并使用新数据集训练第二层的元学习器得到
步骤6.6、基于原始数据集d重新训练第一层的基学习器得到
步骤6.7、最终融合模型H在数据集合d上基于特征x的预测结果为
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211015472.5/1.html,转载请声明来源钻瓜专利网。





