[发明专利]一种图像质量评价方法、设备及存储设备在审
申请号: | 201711379886.5 | 申请日: | 2017-12-20 |
公开(公告)号: | CN109949264A | 公开(公告)日: | 2019-06-28 |
发明(设计)人: | 樊春玲;张云;姜青山 | 申请(专利权)人: | 深圳先进技术研究院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04 |
代理公司: | 深圳市科进知识产权代理事务所(普通合伙) 44316 | 代理人: | 赵勍毅 |
地址: | 518055 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 图像失真 图像质量评价 存储设备 失真类型 质量分数 质量评估 构建 图像 图像质量分数 质量评估模型 分类结果 关注图像 网络融合 网络预测 差异性 有效地 分类 预测 | ||
本发明实施方式公开了一种图像质量评价方法,还公开了相应的设备以及存储设备。本发明实施例中,通过图像失真类型分类,然后针对图像失真类型分别构建专家质量评估模型,再将图像失真类型分类结果和多个专家质量评估网络融合,评价图像质量分数;从而通过关注图像不同失真类型之间的差异性,以及通过针对性构建多个专家质量评估网络预测图像的质量分数,有效地对多个失真类型的图像的质量分数进行有效预测。
技术领域
本发明涉及图像识别与处理领域,特别是涉及一种图像质量评价方法、设备及存储设备。
背景技术
移动互联网每天产生海量的图像,这些数据在很多领域有着至关重要的作用,比如安防监控、网络教育、医疗卫生、影视娱乐等等。然而,由于各种各样的物理条件的限制,使得人们最终观察到的图像和视频数据不可避免地存在着各种各样的质量损失,具体比如:
在采集过程中,往往由于曝光不均匀、机械系统抖动等原因造成采集过程中的失真;在传输和存储过程中,由于传输带宽和存储成本的限制,不得不使用有损或无损编码对数据进行压缩处理,导致图像和视频数据出现如方块效应、色调分离和振铃效应等失真;在显示终端,由于显示设备的对比度和色域的限制、亮度和色度的失调等也会导致显示失真。
上述各种失真都会影响对数据的进一步分析处理,影响人们更清晰地认识客观世界和更好地解决实际问题。具体比如:在安防监控领域,监控视频的质量严重影响对违法犯罪的评判效率;图像识别中,图像的失真影响识别结果的准确性和可靠性;在网络教育和视频点播系统中,传输误差也会影响教育传播的效果和观看体验。因此,对图像质量评价是一项急需解决的关键和难点问题,并且将用于进一步指导图像的信号处理与压缩。
随着深度学习的兴起,有学者采用了深度学习方法学习图像和质量之间的映射关系,是一种端到端的方式。比如:采用卷积神经网络(Convolutional neural networks,CNN)将特征提取和回归分析融入同一个网络中学习图像和质量分数之间的非线性映射关系;或者采用具有5层网络结构的深度学习算法进行图像质量评价,综合特征提取、分类、后验概率计算等功能为一体,等等。然而,现有的方法只是为多种失真设计了一种通用的网络模型进行预测,没有考虑到图像失真类型之间的差异性。
发明内容
本发明实施方式主要解决的技术问题是提供一种图像质量评价方法、设备及存储设备,通过基于多个专家质量评估网络的无参考图像客观感知质量评价方法,通过识别图像失真类型,并建立多个针对特定失真类型的专家质量评估网络对失真图像进行评估,最后通过一定的融合机制预测图像失真对图像质量的影响,即图像的质量分数。
为解决上述技术问题,本发明实施方式采用的一个技术方案是:
提供一种图像质量评价方法,包括:
获取待评价图像集;
构建图像失真类型分类模型;
根据所述图像失真类型分类模型对所述待评价图像集进行失真分类得到多个图像失真类型集;
根据图像失真类型构建专家质量评估模型,所述专家质量评估模型包括多个专家质量评估网络;
将所述图像失真类型集与所述专家指令评估模型进行融合,并评价图像质量分数。
进一步的,所述获取待评价图像集步骤之后还包括:
将所述待评价图像进行局部归一化预处理;
计算归一化后的亮度值
其中,I(i,j)为坐标(x,y)处的亮度值,C是大于零的常数,μ(i,j)和σ(i,j)分别是亮度值I(i,j)的均值和方差。
进一步的,所述构建图像失真类型分类模的步骤包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳先进技术研究院,未经深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711379886.5/2.html,转载请声明来源钻瓜专利网。