[发明专利]基于边缘链码特征的无参考虚拟视点图像质量评价方法在审
申请号: | 202211248470.0 | 申请日: | 2022-10-12 |
公开(公告)号: | CN115631148A | 公开(公告)日: | 2023-01-20 |
发明(设计)人: | 陈淑聪;汪斌;廖师璇;李宇洁;陈国干 | 申请(专利权)人: | 嘉兴学院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06V10/766;G06V10/77;G06V10/82 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 贾玉霞 |
地址: | 314033 *** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 边缘 特征 参考 虚拟 视点 图像 质量 评价 方法 | ||
本发明公开一种基于边缘链码特征的无参考虚拟视点图像质量评价方法,采用MASK‑RCNN模型对虚拟视点失真图像进行目标检测,提取出目标掩膜,并计算出目标掩膜的归一化链码,然后计算归一化链码的均值、方差、峰度和偏度,组合成归一化链码特征向量;同时,对虚拟视点失真图像进行规范化处理并采用广义高斯分布进行建模,提取出自然度特征;联合MASK‑RCNN模型提取的归一化链码特征和自然度特征得到图像质量评价特征,将图像质量评价特征送到支持向量回归机中进行训练和测试,得到输入失真图像的图像质量评价结果。该方法利用MASK‑RCNN模型提取目标掩膜的归一化链码特征进行图像质量评价,充分考虑了失真对虚拟视点失真图像边界带来的影响,提高了图像质量评价的精度。
技术领域
本发明属于图像处理领域,尤其涉及一种基于边缘链码特征的无参考虚拟视点图像质量评价方法。
背景技术
随着图像和视频技术的发展,单视点图像和视频已不能满足人们的需要,自由视点视频应运而生。自由视点视频采用多视点加深度的编码格式,采用基于深度的虚拟视点绘制算法绘制新的视点,但由于深度信息的不精确和绘制算法的误差,绘制得到的虚拟视点图像具有拉伸和孔洞等失真,与传统的图像失真不同,这些失真主要集中在局部区域,因此有必要设计专门针对虚拟视点图像的图像质量评价方法。
虚拟视点图像质量评价方法根据是否有人的参与可分成主观图像质量评价方法和客观图像质量评价方法。主观图像质量评价方法由人对图像进行打分,评价结果精确,但评价过程复杂,耗时时间长,难以得到实时应用。客观图像质量评价方法无需人的参与,通过特定的计算机算法自动预测图像质量,根据是否使用原始无失真图像作为参考,可将虚拟视点图像质量评价方法分成全参考虚拟视点图像质量评价方法和无参考虚拟视点图像质量评价方法。全参考虚拟视点图像质量评价方法使用参考图像的所有信息预测图像质量,无参考虚拟视点图像质量评价方法不使用参考图像的任何信息进行图像质量评价。针对无参考虚拟视点图像质量评价,国内外学者提出了一些算法,但目前的无参考虚拟视点图像质量评价方法仅考虑全局失真,较少考虑局部失真对图像质量的影响,因此评价精度较低。
综上所述,如何在全面考虑失真的基础上提出一种更为有效的无参考虚拟视点图像质量评价方法,成为了本领域技术人员急需解决的问题。
发明内容
针对现有技术的不足,本发明提供一种基于边缘链码特征的无参考虚拟视点图像质量评价方法,该方法预测效果精确,具体技术方案如下:
一种基于边缘链码特征的无参考虚拟视点图像质量评价方法,该方法包括如下步骤:
步骤一:输入虚拟视点失真图像,如果虚拟视点失真图像是彩色图像,将其转换成灰度失真图像I;
步骤二:采用已训练过的MASK-RCNN模型对输入灰度失真图像I进行目标检测,得到目标掩膜M,计算目标掩膜M的归一化链码,并将归一化链码的均值、方差、峰度和偏度组合成归一化链码特征向量;同时,提取灰度失真图像I的自然度特征向量;
步骤三:将所述归一化链码特征向量和自然度特征向量组合成总特征向量F;
步骤四:将总特征向量F合并主观MOS分值送到支持向量回归机中进行训练,得到训练后的支持向量回归机;
步骤五:将测试图像同样按步骤二~三提取出特征向量F,送到训练后的支持向量回归机中进行测试,得到客观的图像质量评价结果。
进一步地,所述步骤二中,得到目标掩膜M的子步骤如下:
(1)构建MASK RCNN模型,将初始化权重参数输入到构建的MASK RCNN模型;
(2)将输入灰度失真图像I输入到初始化的MASK RCNN模型进行目标检测,得到目标掩膜M。
进一步地,所述步骤二中,计算目标掩膜M的归一化链码的子步骤如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于嘉兴学院,未经嘉兴学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211248470.0/2.html,转载请声明来源钻瓜专利网。