[发明专利]基于元学习的无参考图像质量数据处理方法、智能终端在审
申请号: | 201910844666.8 | 申请日: | 2019-09-06 |
公开(公告)号: | CN110728656A | 公开(公告)日: | 2020-01-24 |
发明(设计)人: | 李雷达;祝汉城;吴金建;石光明 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06N3/04;G06N3/08 |
代理公司: | 61227 西安长和专利代理有限公司 | 代理人: | 李霞 |
地址: | 710071 陕西省*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 质量评价模型 图像数据库 无参考图像 失真图像 先验模型 质量评价 查询集 图像 计算机视觉技术 卷积神经网络 图像质量评价 质量数据处理 训练集数据 测试 方式获取 失真类型 梯度优化 图像处理 训练数据 智能终端 自动实现 测试集 训练集 两级 微调 参考 主流 学习 | ||
1.一种基于元学习的无参考图像质量数据处理方法,其特征在于,所述基于元学习的无参考图像质量数据处理方法包括以下步骤:
第一步,包含大量模拟失真的图像质量评价数据集按照失真类型划分成不同的任务;
第二步,每个失真类型的质量评价任务的数据集划分成支持集和查询集,并对图像数据进行预处理;
第三步,构建深度卷积神经网络作为待训练的图像质量评价模型;
第四步,将预处理后的图像数据和质量分数输入到构建的网络模型中进行基于梯度优化的元学习方式训练,得到质量评价先验模型;
第五步,把真实失真的图像质量评价数据库划分成训练集和测试集,利用预处理后的训练图像以及对应质量分数对获取得到的质量评价先验模型进行微调训练得到符合真实失真图像的质量评价模型;
第六步,对于测试集中待测试的图像,利用已建立的图像质量评价模型,自动实现对真实失真图像的质量评价。
2.如权利要求1所述的基于元学习的无参考图像质量数据处理方法,其特征在于,所述第一步包含大量模拟失真的图像质量评价数据集按照失真类型划分成不同的任务方法板块具体包括:
(1)搜集包含大量模拟失真的图像数据集,获取图像数据以及对应的质量分数,并把所有的质量分数归一化到[0,1];
(2)以失真类型为研究目标,每个模拟失真的图像质量评价看出独立的任务。
3.如权利要求1所述的基于元学习的无参考图像质量数据处理方法,其特征在于,所述第二步每个失真类型的质量评价任务的数据集划分成支持集和查询集,并对图像数据进行预处理方法如下:
(1)把每个失真类型的图像质量评价数据集按照8:2的比例分成支持集和查询集;
(2)把图像的尺寸缩放到预定尺寸大小,预定尺寸与构建的深度卷积神经网络所要求的输入尺寸一致;
(3)将图像数据进行归一化操作,统计训练数据中样本图像的均值,对所有的样本图像进行去均值操作,得到预处理后的图像。
4.如权利要求1所述的基于元学习的无参考图像质量数据处理方法,其特征在于,所述第三步构建深度卷积神经网络作为待训练的图像质量评价模型方法板块:
(1)构建的深度卷积神经网络由基础网络模型、两个全连接层和一个输出层组成;
(2)其中基础网络模型去掉全连接层的Inception-V3卷积网络部分;
(3)两个全连接层分别由1024个和512个节点组成;
(4)输出层为图像质量评价的预测结果,采用Sigmoid激活函数作为输出层的激活函数。
5.如权利要求1所述的基于元学习的无参考图像质量数据处理方法,其特征在于,所述第四步将预处理后的图像数据和质量分数输入到构建的网络模型中进行基于梯度优化的元学习方式训练,得到质量评价先验模型方法板块:
(1)以每个失真类型的图像质量评价任务看成训练目标,把支持集和查询集的图像数据分别输入构建的网络模型进行预测,网络模型参数来自预训练网络;
(2)基于梯度优化的元学习训练方式为两级梯度优化方法,首先利用每个失真类型中支持集的图像数据对网络模型参数进行一次更新,然后利用更新后的网络模型对查询集的图像数据进行二次梯度更新;
(3)利用大量不同失真类型的图像质量评价任务对网络模型的参数不断进行训练得到质量评价先验模型;
(4)网络模型训练采用随机梯度下降法SGD进行参数优化,并利用交叉熵作为损失函数,计算公式如下:
其中,yn和分别为图像质量分数的真实结果和预测结果,N为训练的图像数量;通过梯度优化方法对网络模型参数进行训练,直至计算的损失函数结果小于阈值为止,最终得到图像的质量评价先验模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910844666.8/1.html,转载请声明来源钻瓜专利网。