[发明专利]基于视频的物体切割方法及装置在审
申请号: | 201610041711.2 | 申请日: | 2016-01-21 |
公开(公告)号: | CN105719297A | 公开(公告)日: | 2016-06-29 |
发明(设计)人: | 陈世峰 | 申请(专利权)人: | 中国科学院深圳先进技术研究院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 深圳中一专利商标事务所 44237 | 代理人: | 张全文 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 视频 物体 切割 方法 装置 | ||
技术领域
本发明属于视频处理技术领域,尤其涉及基于视频的物体切割方法及装置。
背景技术
视频中的物体切割技术在在计算机视觉的许多应用领域都扮演着极为重要的角色,包括视频监控、视频编辑、视频检索等应用领域。为了提高物体切割的精度,现有技术中的大多算法都会对视频数据提出一些假设,例如视频背景静止的假设,或者相机保持静止的假设,等等,然而,以上假设也为物体切割的适用场景提出了限制,无法针对任意视频完成物体切割操作。
发明内容
有鉴于此,本发明实施例提供了基于视频的物体切割方法及装置,以解决现有技术对物体切割的适用场景存在限制,无法针对任意视频完成物体切割操作的问题。
第一方面,提供了一种基于视频的物体切割方法,包括:
提取视频的其中一帧图像,通过图切割算法切割出所述图像中的指定物体;
对切割出的物体进行特征学习,获取所述物体的物体区域、非物体区域及边界的统计特征;
基于获取到的所述物体的统计特征,通过条件随机场模型对所述视频的其他帧图像中的所述物体进行切割。
第二方面,提供了一种基于视频的物体切割装置,包括:
第一切割单元,用于提取视频的其中一帧图像,通过图切割算法切割出所述图像中的指定物体;
特征学习单元,用于对切割出的物体进行特征学习,获取所述物体的物体区域、非物体区域及边界的统计特征;
第二切割单元,用于基于获取到的所述物体的统计特征,通过条件随机场模型对所述视频的其他帧图像中的所述物体进行切割。
本发明实施例首先利用简单的图切割算法切割出视频片段第一帧图像中的物体,之后基于该第一帧图像的切割结果,学习切割出的物体的统计特征,进而通过条件随机场模型来实现对该视频片段其它帧的该物体的切割,从而能够完成对任意视频中任意物体的自动切割,使得物体切割不再受背景静止、相机静止、前景运动或者背景已知等条件的限制,提高了物体切割算法的处理能力。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于视频的物体切割方法的实现流程图;
图2是本发明实施例提供的基于视频的物体切割装置的结构框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透切理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
图1示出了本发明实施例提供的基于视频的物体切割方法的实现流程,详述如下:
在S101中,提取视频的其中一帧图像,通过图切割算法切割出所述图像中的指定物体。
优选地,可以按照视频图像帧的播放顺序,提取出视频的第一帧图像,并通过图切割算法来对该图像中通过用户交互所指定的物体进行切割。
在S102中,对切割出的物体进行特征学习,获取所述物体的物体区域、非物体区域及边界的统计特征。
在本发明实施例中,可以采用支持向量机(SVM)作为分类器,选择像素的色彩或者亮度值,以及以该像素为中心的图像块的色彩或者亮度值作为图像统计特征,从而分别学习到该物体的物体区域、非物体区域及边界的统计特征。
将视频的第一帧图像的物体切割结果作为训练数据,采用SVM进行学习。假设fo是学习到的分类函数,在分类函数中,sgn[fo(oi)]=+1代表像素i属于物体区域,sgn[fo(oi)]=-1代表像素i属于非物体区域,其中,sgn代表符号函数。
在S103中,基于获取到的所述物体的统计特征,通过条件随机场模型对所述视频的其他帧图像中的所述物体进行切割。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院深圳先进技术研究院,未经中国科学院深圳先进技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610041711.2/2.html,转载请声明来源钻瓜专利网。