[发明专利]视频处理方法、装置、计算机设备及介质在审
申请号: | 202210273317.7 | 申请日: | 2022-03-18 |
公开(公告)号: | CN114612841A | 公开(公告)日: | 2022-06-10 |
发明(设计)人: | 磯部駿;陶鑫;戴宇荣 | 申请(专利权)人: | 北京达佳互联信息技术有限公司 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06T3/40;G06T7/269 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 李加欣 |
地址: | 100085 北京市海淀*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 处理 方法 装置 计算机 设备 介质 | ||
本公开关于一种视频处理方法、装置、计算机设备及介质,属于视频技术领域。本公开实施例中,针对视频中的第i帧,利用第i‑1帧图像的图像特征信息与第一差异信息,将第i‑1帧图像的特征信息转换至第i帧图像,得到第一转换信息,利用第i+1帧图像的图像特征信息与第二差异信息,将第i+1帧图像的特征信息转换至第i帧图像,得到第二转化信息,在确定第i帧图像的超分辨信息时,不仅参考了前一帧图像转换至当前帧图像的转换信息,还参考了后一帧图像转换至当前帧的转换信息,增加了所参考的信息量,能够精确地获取当前帧图像的超分辨信息,提高了超分辨重建的精确性,进而能够精确地获取超分辨视频,提高了视频处理的精确性。
技术领域
本公开涉及视频技术领域,尤其涉及一种视频处理方法、装置、计算机设备及介质。
背景技术
在视频技术领域中,超分辨重建技术有着广泛的应用范围和研究意义,且随着深度学习的发展,基于卷积神经网络的超分辨重建技术获得了较快的发展。其中,超分辨重建技术是利用低分辨率图像来重建出相应时刻像素密度更高、细节更完整的高分辨率图像。
目前,基于卷积神经网络的视频超分辨技术通常是:利用二维卷积、三维卷积或其他类型的卷积来构建卷积神经网络,基于卷积神经网络来提取视频所包括的多帧图像的超分辨信息,以获取重建高分辨率图像所需的细节特征,从而将视频所包括的多帧低分辨率图像转换为多帧高分辨率图像。
然而,目前所采用的超分辨重建技术,仍然难以精确地获取图像的超分辨信息,降低了超分辨重建的精确性,降低了视频处理的精确性。
发明内容
本公开提供一种视频处理方法、装置、计算机设备及介质,能够精确地获取当前帧图像的超分辨信息,提高了超分辨重建的精确性,提高了视频处理的精确性。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种视频处理方法,该方法包括:
针对视频中的第i帧图像,获取第i-1帧图像的图像特征信息、第一差异信息以及第i+1帧图像的图像特征信息、第二差异信息,该i为大于1的正整数,该图像特征信息表示对应图像的细节特征,该第一差异信息表示对应图像与该图像的后一帧图像在该细节特征上的差异,该第二差异信息表示对应图像与该图像的前一帧图像在该细节特征上的差异;
基于该第i-1帧图像的图像特征信息与第一差异信息,确定第一转换信息,基于该第i+1帧图像的图像特征信息与第二差异信息,确定第二转换信息,该第一转换信息表示该第i-1帧图像转换至该第i帧图像时所需的参数,该第二转换信息表示该第i+1帧图像转换至该第i帧图像时所需的参数;
基于该第i帧图像的图像特征信息、该第一转换信息以及该第二转换信息,确定该第i帧图像的超分辨信息;
基于该视频中多帧图像的超分辨信息,获取超分辨视频。
本公开实施例中,针对视频中的第i帧,通过获取第i-1帧图像的图像特征信息、第一差异信息以及第i+1帧图像的图像特征信息、第二差异信息,进而利用第i-1帧图像的图像特征信息与第一差异信息,将第i-1帧图像的特征信息转换至第i帧图像,得到第一转换信息,利用第i+1帧图像的图像特征信息与第二差异信息,将第i+1帧图像的特征信息转换至第i帧图像,得到第二转化信息,进而利用第i帧图像的图像特征信息、第一转换信息以及第二转换信息,来获取第i帧图像的超分辨信息,如此,在确定第i帧图像的超分辨信息时,不仅参考了前一帧图像转换至当前帧图像的转换信息,还参考了后一帧图像转换至当前帧的转换信息,增加了所参考的信息量,能够精确地获取当前帧图像的超分辨信息,提高了超分辨重建的精确性,进而基于该视频中的多帧图像,能够精确地获取超分辨视频,提高了视频处理的精确性。
在一些实施例中,该第i-1帧图像的图像特征信息与第一差异信息的获取过程包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京达佳互联信息技术有限公司,未经北京达佳互联信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210273317.7/2.html,转载请声明来源钻瓜专利网。