[发明专利]基于梯度残差U型卷积神经网络的图像篡改检测技术在审
申请号: | 202111197057.1 | 申请日: | 2021-10-14 |
公开(公告)号: | CN113920094A | 公开(公告)日: | 2022-01-11 |
发明(设计)人: | 江保祥;夏靖波;李仕彦;王燕婷;吴耀翔;宋夏雯 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/44;G06V10/764;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 北京中济纬天专利代理有限公司 11429 | 代理人: | 张磊 |
地址: | 361001 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 梯度 卷积 神经网络 图像 篡改 检测 技术 | ||
1.一种基于梯度残差U型卷积神经网络的图像篡改检测技术,其特征在于,它包括以下步骤:
S1.输入待检测的篡改图像;
S2.对输入的篡改图像进行数据增强,获得三组增强的测试图像;
S3.将篡改图像和测试图像依次输入到预训练的编码器中进行下采样,编码器设置4个下采样层,每个下采样层包括自适应中心差分卷积和最大池化层;
下采样层先通过Sobel算子残差模块提取输入图像的篡改的边缘梯度信息,再通过自适应中心差分卷积和最大池化层提取输入图像的本质属性特征,最后将本质属性特征与边缘梯度信息结合并归一化后得到特征图,特征图输入至下一下采样层,同时复制特征图用于跨连接;
S4.编码器还设置4个上采样层和1个分类层,最后一个下采样层得到的特征图输入至上采样层,每个上采样层包括自适应中心差分卷积、上采样卷积和RELU激活;
编码器将下采样层获取的复制特征图通过跨连接的方法输入到解码器对应的上采样层,上采样层先将输入图像与解码器中相同分辨率的跨连接特征图进行连接操作,再通过Sobel算子残差模块提取连接后图像的篡改的边缘梯度信息,连接后的图像接着通过自适应中心差分卷积和上采样卷积提取本质属性特征,最后将本质属性特征与边缘梯度信息结合并归一化后得到新特征图,新特征图输入至下一上采样层;
最后一个上采样层得到的新特征图输入至分类层,新特征图与下采样层同分辨率的跨连接特征图进行连接操作后,再通过中心差分卷积提取连接后图像的本质属性特征,最后经过一个1*1的中心差分卷积获得逐像素篡改概率的预测图;
S5.将步骤4中的三组测试图像获得的预测图进行增强的逆向还原;
S6.将篡改图像获得的预测图和三组测试图像还原后的预测图进行加权融合获得最终逐像素篡改概率预测图。
2.根据权利要求1所述的基于梯度残差U型卷积神经网络的图像篡改检测技术,其特征在于:
步骤2中数据增强方式包括高斯噪声、顺时针旋转90°以及水平翻转;
步骤5中对顺时针旋转90°后的测试图像获得的预测图进行逆时针旋转90°还原,对水平翻转后的测试图像的预测图进行水平翻转还原,对高斯噪声处理后的预测图则不进行还原操作。
3.根据权利要求1所述的基于梯度残差U型卷积神经网络的图像篡改检测技术,其特征在于:每个下采样层包括两个3*3的自适应中心差分卷积;每个上采样层包括两个3*3的自适应中心差分卷积。
4.根据权利要求2所述的基于梯度残差U型卷积神经网络的图像篡改检测技术,其特征在于:
步骤6中的加权融合的公式如下:
P=0.5Pori+0.2Pfold+0.2Pspin+0.1Pnoise
其中,Pori为原输入的篡改图像的预测结果,Pfold为水平翻转增强后图像的预测结果,Pspin顺时针旋转90°增强后图像的预测结果,Pnoise高斯噪声增强后图像的预测结果。
5.根据权利要求1所述的基于梯度残差U型卷积神经网络的图像篡改检测技术,其特征在于,编码器的预训练过程如下:
选取若干未经过篡改的图像作为原始图像,通过图像编辑程序对这些图像进行复制-粘贴、拼接、移除篡改操作,并且制作对应的二值篡改标签图,篡改区域为黑,无篡改区域为白,将篡改操作后的图像作为训练集;
训练前先对训练集内的图像进行数据增强,训练时采用Focalloss损失函数计算预测值和真实标签的误差,Focalloss损失函数公式如下所示:
FL(pt)=-αt(1-pt)γlog(pt)
其中Pt是不同类别的分类概率,γ是个大于0的值,αt是个[0,1]间的小数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111197057.1/1.html,转载请声明来源钻瓜专利网。