[发明专利]基于深度学习的立体视频质量客观评价方法有效

专利信息
申请号: 201710566729.9 申请日: 2017-07-12
公开(公告)号: CN109257592B 公开(公告)日: 2020-09-01
发明(设计)人: 杨嘉琛;王焕玲;姜斌;朱英豪;计春祺 申请(专利权)人: 天津大学
主分类号: H04N17/00 分类号: H04N17/00
代理公司: 天津市北洋有限责任专利代理事务所 12201 代理人: 吴学颖
地址: 300072*** 国省代码: 天津;12
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于深度学习的立体视频质量客观评价方法:处理图像得到独眼图、双目和图及双目差图;独眼图上提取HOG特征;分别在双目和图和双目差图提取GM和LOG的联合分布特征;光流场上提取时域特征;时间方向上求视频每组特征平均值;通过稀疏自编码器对输入特征抽象表达,分别建立深度学习网络评价模型;利用深度学习网络评价模型分别预测独眼图、双目和图和双目差图、流场图的质量分数;独眼图、双目和图和双目差图、流场图加权整合。本发明结合HOG特征、GM和LOG的联合分布特征、以及光流特征对立体视频质量的影响,进行立体视频质量评价,提高立体视频客观质量评价的准确性。
搜索关键词: 基于 深度 学习 立体 视频 质量 客观 评价 方法
【主权项】:
1.基于深度学习的立体视频质量客观评价方法,每个失真立体视频对由左视点视频和右视点视频组成,其特征在于,包括以下步骤:第一步,对组成左视点视频和右视点视频的图像序列分别进行处理,得到独眼图、双目和图及双目差图;第二步,空域特征提取:在独眼图上提取HOG特征,记为第三步,空域特征提取:分别在双目和图和双目差图上提取高斯幅度(GM)和高斯拉普拉斯算子(LOG)的联合分布特征,分别记为第四步,时域特征提取:计算相邻两帧图像的独眼图间的光流场,并在光流场上提取特征作为时域特征Ft;第五步,以上述空域特征、时域特征为基础,对视频的所有图像序列执行第一步到第四步,并在时间方向上求视频每组特征的平均值,分别记为并将双目和图和双目差图的特征进行级联,记为第六步,在已知主观分数的立体视频库上训练自稀疏编码器模型,通过稀疏自编码器对输入特征进行抽象表达,根据输入的独眼图、双目和图及双目差图、光流场图的特征,分别建立相应的深度学习网络评价模型,分别记为SAE‑C、SAE‑SD、SAE‑T;第七步,测试阶段:对待测试视频进行第一步到第五步的处理,提取对应的特征,之后利用各自的深度学习网络评价模型分别进行预测,得到视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt;第八步,整合阶段:将独眼图、双目和图及双目差图看作空域质量,将光流场图看作时域质量;将视频的独眼图质量客观分数预测值Qc、双目和图和双目差图质量客观分数预测值Qsd和光流场图质量客观分数预测值Qt按以下公式进行加权整合:Q=α·Qs+β·Qt (α+β=1)Qs=u·Qc+v·Qsd (u+v=1)
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津大学,未经天津大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710566729.9/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top