[发明专利]一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法有效

专利信息
申请号: 202110492823.0 申请日: 2021-05-07
公开(公告)号: CN113192083B 公开(公告)日: 2023-06-06
发明(设计)人: 姜求平;郭嘉骏;邵枫 申请(专利权)人: 宁波大学
主分类号: G06T7/11 分类号: G06T7/11;G06T5/00;G06T5/30
代理公司: 宁波奥圣专利代理有限公司 33226 代理人: 周珏
地址: 315211 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 纹理 掩蔽 效应 图像 可察觉 失真 阈值 估计 方法
【权利要求书】:

1.一种基于纹理掩蔽效应的图像恰可察觉失真阈值估计方法,其特征在于包括以下步骤:

步骤1:将原始图像记为{Io(x,y)};然后对{Io(x,y)}进行灰度处理,得到{Io(x,y)}对应的灰度图像,记为{Ior(x,y)};其中,1≤x≤R,1≤y≤C,R表示{Io(x,y)}和{Ior(x,y)}的宽度,C表示{Io(x,y)}和{Ior(x,y)}的高度,Io(x,y)表示{Io(x,y)}中坐标位置为(x,y)的像素点的像素值,Ior(x,y)表示{Ior(x,y)}中坐标位置为(x,y)的像素点的像素值;

步骤2:对{Ior(x,y)}进行尺度变换,将{Ior(x,y)}变换为双精度浮点型且宽度为R′、高度为C′的图像,记为{Irs(x′,y′)};然后将{Irs(x′,y′)}分割成个尺寸大小为8×8的互不重叠的图像块,将{Irs(x′,y′)}中的第n个图像块记为Blockn;其中,R′=[R÷8]×8,符号为向上取整运算符号,1≤x′≤R′,1≤y′≤C′,Irs(x′,y′)表示{Irs(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,

步骤3:采用差分盒计数方法,计算出{Irs{x′,y′)}中的每个图像块的分形维数,将Blockn的分形维数记为Dbcn;然后将{Irs(x′,y′)}中的每个图像块的分形维数作为衡量该图像块的纹理的粗糙度的权值,得到权值图,记为{D(x′,y′)},{D(x′,y′)}中与{Irs(x′,y′)}中的每个图像块位置对应的尺寸大小为8×8的区域中的每个像素点的像素值均为对应的图像块的分形维数,{D(x′,y′)}中与Blockn位置对应的尺寸大小为8×8的区域中的每个像素点的像素值均为Dbcn;再对{D(x′,y′)}进行尺度变换,将{D(x′,y′)}变换为宽度为R、高度为C的图像,记为{Do(x,y)};其中,{D(x′,y′)}的宽度为R′、高度为C′,{D(x′,y′)}和{Do(x,y)}均为双精度浮点型的图像,D(x′,y′)表示{D(x′,y′)}中坐标位置为(x′,y′)的像素点的像素值,Do(x,y)表示{Do(x,y)}中坐标位置为(x,y)的像素点的像素值;

步骤4:计算{Ior(x,y)}中的每个像素点的纹理复杂度,将{Ior(x,y)}中坐标位置为(x,y)的像素点的纹理复杂度记为FT(x,y),FT(x,y)=(log2(Do(x,y)))α;并计算{Ior(x,y)}中的每个像素点的亮度对比度,将{Ior(x,y)}中坐标位置为(x,y)的像素点的亮度对比度记为FL(x,y),计算{Ior(x,y)}中的每个像素点的纹理掩蔽效应,将{Ior(x,y)}中坐标位置为(x,y)的像素点的纹理掩蔽效应记为MLT(x,y),MLT(x,y)=f(FT(x,y))×f(FL(x,y)),f(FL(x,y))=log2(1+FL(x,y));计算{Ior(x,y)}中的每个像素点的对比度掩蔽效应,将{Ior(x,y)}中坐标位置为(x,y)的像素点的对比度掩蔽效应记为ML(x,y),其中,α为常数,α的值为4.85,Gv(x,y)表示{Ior(x,y)}中坐标位置为(x,y)的像素点的垂直方向的梯度,Gh(x,y)表示{Ior(x,y)}中坐标位置为(x,y)的像素点的水平方向的梯度,Gv(x,y)和Gh(x,y)均通过采用canny算子计算得到,β1=0.6,β2=2.5,β3=0.1,λ1=16,λ2=26,符号“*”为卷积运算符号;

步骤5:将{Ior(x,y)}转换为双精度浮点型的图像,记为{Iorv(x,y)};然后采用以及四个滤波模板,分别对{Iorb(x,y)}中的每个像素点进行滤波处理,得到{Iorb(x,y)}的四幅滤波图像,对应记为{G1(x,y)}、{G2(x,y)}、{G3(x,y)}以及{G4(x,y)},将{G1(x,y)}中坐标位置为(x,y)的像素点的像素值记为G1(x,y),将{G2(x,y)}中坐标位置为(x,y)的像素点的像素值记为G2(x,y),将{G3(x,y)}中坐标位置为(x,y)的像素点的像素值记为G3(x,y),将{G4(x,y)}中坐标位置为(x,y)的像素点的像素值记为G4(x,y),G1(x,y)=GA*Iorb(x,y)/16,G2(x,y)=GB*Iorb(x,y)/16,G3(x,y)=Gc*Iorb(x,y)/16,G4(x,y)=GD*Iorb(x,y)/16;再根据{G1(x,y)}、{G2(x,y)}、{G3(x,y)}以及{G4(x,y)},获取最大值图像,记为{MAX(x,y)},将{MAX(x,y)}中坐标位置为(x,y)的像素点的像素值记为MAX(x,y),MAX(x,y)=max(G1(x,y),G2(x,y),G3(x,y),G4(x,y));其中,Iorb(x,y)表示{Iorb(x,y)}中坐标位置为(x,y)的像素点的像素值,符号“*”为卷积运算符号,max()为取最大值函数;

步骤6:计算{Iorb(x,y)}中的每个像素点的边缘判定值,将{Iorb(x,y)}中坐标位置为(x,y)的像素点的边缘判定值记为th(x,y),th(x,y)=Eh/MAX(x,y);紧接着判断{Iorb(x,y)}中的每个像素点的边缘判定值是否大于0.8,若像素点的边缘判定值大于0.8,则将像素点的边缘判定值重新赋值为0.8;之后采用canny算子提取出{Iorb(x,y)}中边缘判定值等于0.8的所有像素点,作为对象边缘,并得到二值图像,记为{Ibe(x,y)},{Ibe(x,y)}中值为1的像素点为属于对象边缘的像素点、值为0的像素点为属于非对象边缘的像素点;然后使用半径为3的圆形结构元素对{Ibe(x,y)}进行膨胀处理,使圆形结构元素沿着{Ibe(x,y)}中的对象边缘运动而产生的轨迹上的所有像素点的像素值均为1,使对象边缘更粗壮;接着将膨胀处理后得到的图像中的值0与值1置换,将置换后得到的图像记为{Iimd(x,y)};再采用模板为5×5且标准差为0.1的高斯滤波器,对{Iimd(x,y)}中的每个像素点进行滤波处理,得到{Iimd(x,y)}的高斯滤波图像,记为{Iep(x,y)};最后将{Ior(x,y)}中的每个像素点的纹理掩蔽效应与{Iep(x,y)}中对应坐标位置的像素点的像素值相乘,将得到的图像记为{MLT_ep(x,y)},将{MLT_ep(x,y)}中坐标位置为(x,y)的像素点的像素值记为MLT_ep(x,y),MLT_ep(x,y)=MLT(x,y)×Iep(x,y);其中,Eh为常数,Eh=60,Ibe(x,y)表示{Ibe(x,y)}中坐标位置为(x,y)的像素点的像素值,Iimd(x,y)表示{Iimd(x,y)}中坐标位置为(x,y)的像素点的像素值,对于{Iimd(x,y)}中的任意一个像素点,若膨胀处理后得到的图像中与该像素点对应坐标位置的像素点的像素值为1,则该像素点的像素值为0,若膨胀处理后得到的图像中与该像素点对应坐标位置的像素点的像素值为0,则该像素点的像素值为1,Iep(x,y)表示{Iep(x,y)}中坐标位置为(x,y)的像素点的像素值;

步骤7:计算{Ior(x,y)}中的每个像素点的空间掩蔽效应,将{Ior(x,y)}中坐标位置为(x,y)的像素点的空间掩蔽效应记为JNDSP(x,y),JNDSP(x,y)=max(MLT_ep(x,y),ML(x,y));并计算{Ior(x,y)}中的每个像素点的亮度自适应性,将{Ior(x,y)}中坐标位置为(x,y)的像素点的亮度自适应性记为JNDLA(x,y),再利用非线性可加模型NAMM,计算{Ior(x,y)}中的每个像素点的初步恰可察觉失真阈值,将{Ior(x,y)}中坐标位置为(x,y)的像素点的初步恰可察觉失真阈值记为JNDPre(x,y),JNDPre(x,y)=JNDLA(x,y)+JNDSP(x,y)-θ×min(JNDLA(x,y),JNDSP(x,y));其中,B(x,y)表示{Ior(x,y)}中以坐标位置为(x,y)的像素点为中心的尺寸大小为5×5的区域中的所有像素点的亮度值的平均值,θ是为了消除JNDLA(x,y)与JNDSP(x,y)之间的重叠而导致恰可察觉失真阈值估计过高而引入的约减系数,θ的值设为0.3,min()为取最小值函数;

步骤8:采用GBVS,计算{Ior(x,y)}的显著图,记为{Iogbvs(x,y)};其中,Iogbvs(x,y)表示{Iogbvs(x,y)}中坐标位置为(x,y)的像素点的像素值;

步骤9:对{Iogbvs(x,y)}中的每个像素点的像素值进行量化处理,将Iogbvs(x,y)经量化处理后得到的值记为Ieon(x,y),再计算{Ior(x,y)}中的每个像素点的最终恰可察觉失真阈值,将{Ior(x,y)}中坐标位置为(x,y)的像素点的最终恰可察觉失真阈值记为JNDfina(x,y),JNDfina(x,y)=JNDPre(x,y)×Icon(x,y);其中,γ1=2,γ2=-2.7。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202110492823.0/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top