[发明专利]一种基于视觉感知的立体图像质量客观评价方法有效

专利信息
申请号: 201210144039.1 申请日: 2012-05-11
公开(公告)号: CN102708567A 公开(公告)日: 2012-10-03
发明(设计)人: 邵枫;顾珊波;郁梅;蒋刚毅;李福翠 申请(专利权)人: 宁波大学
主分类号: G06T7/00 分类号: G06T7/00
代理公司: 宁波奥圣专利代理事务所(普通合伙) 33226 代理人: 周珏
地址: 315211 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于视觉感知的立体图像质量客观评价方法,其首先通过计算立体图像的左右视点图像中的每个像素点的局部相位特征和局部振幅特征以获得每个像素点的客观评价度量值,并通过区域检测方法将立体图像划分为遮挡区域、双目抑制区域、双目融合区域,然后对各个区域分别进行评价并对各评价结果进行融合得到最终的图像质量客观评价预测值,优点在于获得的反映局部相位和局部振幅特征信息具有较强的稳定性且能够较好地反映立体图像的质量变化情况,提出遮挡区域、双目抑制区域和双目融合区域的图像质量评价方法能够很好地反映人类视觉系统的视觉感知特性,有效地提高客观评价结果与主观感知的相关性。
搜索关键词: 一种 基于 视觉 感知 立体 图像 质量 客观 评价 方法
【主权项】:
1.一种基于视觉感知的立体图像质量客观评价方法,其特征在于包括以下步骤:①令Sorg为原始的无失真的立体图像,令Sdis为待评价的失真的立体图像,将Sorg的左视点图像记为{Lorg(x,y)},将Sorg的右视点图像记为{Rorg(x,y)},将Sdis的左视点图像记为{Ldis(x,y)},将Sdis的右视点图像记为{Rdis(x,y)},其中,(x,y)表示左视点图像和右视点图像中的像素点的坐标位置,1≤x≤W,1≤y≤H,W表示左视点图像和右视点图像的宽度,H表示左视点图像和右视点图像的高度,Lorg(x,y)表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg(x,y)表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的像素值;②利用人类立体视觉感知对背景光照和对比度的视觉掩蔽效应,分别提取出{Ldis(x,y)}的双目最小可察觉变化图像和{Rdis(x,y)}的双目最小可察觉变化图像,分别记为其中,表示{Ldis(x,y)}的双目最小可察觉变化图像中坐标位置为(x,y)的像素点的像素值,表示{Rdis(x,y)}的双目最小可察觉变化图像中坐标位置为(x,y)的像素点的像素值;③利用区域检测算法,分别获取{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,记为p,其中,p∈{1,2,3},p=1表示遮挡区域,p=2表示双目抑制区域,p=3表示双目融合区域;然后将{Ldis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为将{Ldis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为将{Ldis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为将{Rdis(x,y)}中的所有区域类型为p=1的像素点构成的遮挡区域记为将{Rdis(x,y)}中的所有区域类型为p=2的像素点构成的双目抑制区域记为将{Rdis(x,y)}中的所有区域类型为p=3的像素点构成的双目融合区域记为④分别计算{Lorg(x,y)}、{Rorg(x,y)}、{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,将{Lorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为将{Rorg(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为将{Ldis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为将{Rdis(x,y)}中的所有像素点的局部相位特征和局部振幅特征分别用集合表示为其中,表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Lorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Rorg(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征,表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部相位特征,表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的局部振幅特征;⑤根据{Lorg(x,y)}和{Ldis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Ldis(x,y)}中的每个像素点的客观评价度量值,将{Ldis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QL(x,y)},QL(x,y)=wLP×SLLP(x,y)+wLA×SLLA(x,y)+b,]]>根据{Rorg(x,y)}和{Rdis(x,y)}中的每个像素点的局部相位特征和局部振幅特征,计算{Rdis(x,y)}中的每个像素点的客观评价度量值,将{Rdis(x,y)}中的所有像素点的客观评价度量值用集合表示为{QR(x,y)},QR(x,y)=wLP×SRLP(x,y)+wLA×SRLA(x,y)+b,]]>其中,QL(x,y)表示{Ldis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值,SLLP(x,y)=2×LPLorg(x,y)×LPLdis(x,y)+T1LPLorg(x,y)2+LPLdis(x,y)2+T1,]]>SLLA(x,y)=2×LALorg(x,y)×LALdis(x,y)+T2LALorg(x,y)2+LALdis(x,y)2+T2,]]>QR(x,y)表示{Rdis(x,y)}中坐标位置为(x,y)的像素点的客观评价度量值,SRLP(x,y)=2×LPRorg(x,y)×LPRdis(x,y)+T1LPRorg(x,y)2+LPRdis(x,y)2+T1,]]>SRLA(x,y)=2×LARorg(x,y)×LARdis(x,y)+T2LARorg(x,y)2+LARdis(x,y)2+T2,]]>wLP、wLA和b为训练参数,T1和T2为控制参数;⑥根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉系统对遮挡区域的视觉感知特性,计算Sdis中的遮挡区域的客观评价度量值,记为QncQnc=Σ(x,y)ΩLncQL(x,y)+Σ(x,y)ΩRncQR(x,y)NLnc+NRnc,]]>其中,表示{Ldis(x,y)}中区域类型为p=1的像素点的个数,表示{Rdis(x,y)}中区域类型为p=1的像素点的个数;⑦根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉系统对双目抑制区域的视觉感知特性,计算Sdis中的双目抑制区域的客观评价度量值,记为QbsQbs=max(QLbs,QRbs),]]>其中,max()为取最大值函数,QLbs=Σ(x,y)ΩLbsQL(x,y)×(1/JLdis(x,y))Σ(x,y)ΩLbs(1/JLdis(x,y)),]]>QRbs=Σ(x,y)ΩRbsQR(x,y)×(1/JRdis(x,y))Σ(x,y)ΩRbs(1/JRdis(x,y));]]>⑧根据{Ldis(x,y)}和{Rdis(x,y)}中的每个像素点的区域类型,并利用人类视觉系统对双目融合区域的视觉感知特性,计算Sdis中的双目融合区域的客观评价度量值,记为QbfQbf=0.7×(QLbf+QRbf),]]>其中,QLbf=Σ(x,y)ΩLbfQL(x,y)×(1/JLdis(x,y))Σ(x,y)ΩLbf(1/JLdis(x,y)),]]>QRbf=Σ(x,y)ΩRbfQR(x,y)×(1/JRdis(x,y))Σ(x,y)ΩRbf(1/JRdis(x,y));]]>⑨对Sdis中的遮挡区域的客观评价度量值Qnc、Sdis中的双目抑制区域的客观评价度量值Qbs和Sdis中的双目融合区域的客观评价度量值Qbf进行融合,得到Sdis的图像质量客观评价预测值,记为Q,Q=wnc×Qnc+wbs×Qbs+wbf×Qbf,其中,wnc、wbf和wbs为加权参数。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于宁波大学,未经宁波大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201210144039.1/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top