[发明专利]支持相似性检索的压缩图像加密方法有效

专利信息
申请号: 202210276534.1 申请日: 2022-03-21
公开(公告)号: CN114638002B 公开(公告)日: 2023-04-28
发明(设计)人: 沃焱;孟珂 申请(专利权)人: 华南理工大学
主分类号: G06F21/60 分类号: G06F21/60;G06F21/62;G06F16/583;G06N3/0464;G06N3/08;G06T9/00;G06V10/74;G06V10/82
代理公司: 广州市华学知识产权代理有限公司 44245 代理人: 冯炳辉
地址: 511458 广东省广州市*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 支持 相似性 检索 压缩 图像 加密 方法
【权利要求书】:

1.支持相似性检索的压缩图像加密方法,其特征在于,包括以下步骤:

1)构建并训练改进的图像压缩网络,其中在经典图像压缩网络的编码网络后端增加通道空间注意力模块和离散小波变换模块即DWT模块,在经典图像压缩网络的解码网络前端增加逆离散小波变换模块即IDWT模块,确保图像压缩后的压缩特征具有相似性检索的能力;

经典的图像压缩网络包括编码网络ge、超先验编码网络he、解码网络gs和超先验解码网络hs;ge由多个卷积层和多个广义分歧归一化层组成,gs由多个卷积层和多个逆广义分歧归一化层组成,he与hs均由多个卷积层和多个激活层组成;为压缩后的图像特征具有相似性检索的能力且不降低压缩性能,构建改进的图像压缩网络,具体改进是在编码网络ge后端添加通道空间注意力模块和离散小波变换模块,在解码网络gs之前添加逆离散小波变换模块;

初始化压缩网络参数,将Flick.com上20745张高质量图像随机裁剪为256*256可重叠的图像块,这些图像块被用于对改进的图像压缩网络进行训练;

图像x输入编码网络后得到中间特征y′,首先对中间特征y′执行通道注意力:中间特征对y′分别执行全局平均池化GAP和全局最大值池化GMP,然后分别经过共享多层感知机SMLP,将SMLP输出的特征进行元素级相加,通过Sigmoid激活得到最终的通道注意力特征Vc

Vc=δ(SMLP(GAP(y′))+SMLP(GMP(y′)))

式中,δ为Sigmoid激活函数;将得到的通道注意力特征Vc与中间特征y′相乘,得到通道加权的特征y′c;然后对通道加权的特征y′c执行空间注意力:首先对通道加权的特征y′c做基于通道的全局平均池化和全局最大值池化,将得到的结果在通道上做连结操作,连结的特征通过卷积操作被降维为1个通道,再经过Sigmoid激活得到空间注意力特征Vs

Vs=δ(conv(GAP(y′c),GMP(y′c)))

式中,conv为卷积操作;将得到空间注意力特征Vs与通道加权的特征y′c相乘得到最终的加权后的特征y′wt

加权后的特征y′wt输入DWT模块得到y,对y量化后得到量化特征其中i∈{a,h,v,d},其中表示实数集,代表低频分量,代表高频分量,a代表低频系数,h代表水平方向的高频系数,v代表垂直方向的高频系数,d代表对角线方向的高频系数,M为中通道个数,l和w分别为通道的长和宽;

将通过DWT模块得到的y送入he,得到超先验特征z,量化后得到超先验量化特征对量化特征和超先验量化特征进行熵编码得到压缩码流,将超先验量化特征输入超先验解码网络hs,得到的熵模型参数从而能更精确地对量化特征编码;

将量化特征送入IDWT模块,而后将得到的特征送入解码网络gs,从而得到重建的图像使用率失真损失作为训练优化改进的图像压缩网络,率失真损失Lc表示为:

式中,λ为权衡参数用于控制改进的图像压缩网络的压缩比,d为欧氏距离,H表示对量化特征和超先验量化特征编码所需的码长,该码长是通过对二者的熵近似得到的:

式中,E表示期望,和分别为量化特征和超先验量化特征的分布;训练时学习率设置为10-5,一个训练批次的大小为4,整个改进的图像压缩网络使用ADAM优化器优化;

2)基于训练好的图像压缩模型,得到图像x的量化特征采用基于方差的前项选择方法将图像x的量化特征划分为两个特征集合,分别为检索子集和剩余子集包括以下步骤:

2.1)量化特征i∈{a,h,v,d},其中表示实数集,代表低频分量,代表高频分量,a代表低频系数,h代表水平方向的高频系数,v代表垂直方向的高频系数,d代表对角线方向的高频系数,M为中通道个数,l和w分别为通道的长和宽,包含图像多的内容信息,能保证相似性检索精度;为确保图像内容信息不被泄露,选择对分解得到检索子集即从中选出部分特征用于相似性检索操作;中没有被选择的部分与一起被记为剩余子集即被选进的部分填0,用于保证图像的安全性;分解过程表示为:

式中,m为选择向量,对中的通道进行选择;因中各个通道的系数值服从高斯分布,且高斯分布的微分熵只与方差有关,则有j∈[0,M],M为中通道的个数,故根据各个通道的方差抽取通道,构成

式中,为在第j个通道的熵,σj为在第j个通道的方差,mj为选择向量中的第j个值;σj越大,则该通道包含的信息量就越多,该通道对检索精度的贡献度越大,但同时泄露的内容多,想要高的检索精度,但同时要保证小;

2.2)采用基于方差的前向通道选择方法,从中选出检索子集首先计算压缩特征集中所有特征通道的方差值,将所有方差值按从大到小排序,然后每次增量地按从大到小的顺序从剩余未选中的特征通道集中选出一个通道加入特征集,测试选出特征集的检索性能,反复迭代此过程;待达到最高检索性能时,完成特征通道选择,从而确定选出通道的个数k,则有k=|m|,

3)利用基于DNA的确定性加密方法对检索子集加密得到特征e′1,对其进行平移置乱得到最终的加密特征e1;利用基于混沌与DNA的非确定性加密方法对剩余子集加密得到特征e′2,对执行位置置乱后得到最终的加密特征e2,其中基于混沌与DNA的非确定性加密方法包括以下步骤:

3.1)首先生成4个混沌序列R1,R2,R3,R4,然后将R1,R2的值映射到0-7的范围内得到R′1,R′2,R′1和R′2为两个值在0-7范围内的混沌序列,将R3的值映射到0-255的范围内得到R′3,R′3为值在0-255范围内的混沌序列;

3.2)根据R′1,R′2选择DNA编码规则和解码规则,后对剩余子集执行DNA编解码,得到DNA加密后的特征ed

3.3)将DNA加密后的特征ed与R′3做异或操作,得到e′2

3.4)对混沌序列R4进行排序得到索引序列idx,然后根据索引序列idx对e′2中的每个值进行位置置乱,置乱过程为:

e′2(b):=e′2(idx(b))

式中,b∈[1,M×l×w],M为的特征通道数,l和w分别为通道的长和宽,置乱后得到最终的加密特征e2

4)为进一步提高加密特征e1的相似性检索精度,训练构建相似性检索全连接网络,其中所述相似性检索全连接网络由特征提取网络和全连接网络组成,训练时使用构建的加密特征三元组训练相似性检索全连接网络,网络输出的特征f(e1)作为相似性检索特征;对查询图像xq的相似性检索特征和图像数据库中所有图像的相似性检索特征的欧式距进行排序,得到最终的压缩域密文检索结果。

2.根据权利要求1所述的支持相似性检索的压缩图像加密方法,其特征在于,所述步骤4)包括以下步骤:

4.1)构建相似性检索全连接网络,其中所述相似性检索全连接网络由Resnet和多层全连接层组成;

4.2)初始化相似性检索全连接网络参数,将Corel-1000数据集划分为训练集和测试集,并将训练集和测试集按照步骤1)、2)、3)进行压缩、分集和加密,得到用于对相似性检索全连接网络训练的加密数据集;为拉近同类样本间距离,随机从训练集中选择加密特征然后随机选择一个与其同类的加密特征和一个与其不同类的加密特征三者构成一个三元组,一共构建np组三元组用于训练相似性检索全连接网络,采用三元组损失对相似性检索全连接网络进行优化,三元组损失Lr表示为:

其中式中,np为构建的三元组的组数,和为构造的第c组加密的三元组特征,和为相似性检索全连接网络输出的相似性检索特征,T为常数,d为欧式距度量;训练时采用Adam优化器进行优化保证训练的稳定性,将学习率设置为0.001,迭代次数设置为300个epoch,一个训练批次的大小为16;

4.3)计算测试集中的每一个查询项的相似性检索特征f(e1q)和图像数据库中所有图像的相似性检索特征的汉明距离,根据汉明距离对图像数据库中所有加密图像进行排序,返回压缩域密文检索结果。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202210276534.1/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top