[发明专利]目标跟踪方法及装置有效
申请号: | 201710971907.6 | 申请日: | 2017-10-18 |
公开(公告)号: | CN107784279B | 公开(公告)日: | 2020-09-01 |
发明(设计)人: | 杨松 | 申请(专利权)人: | 北京小米移动软件有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 北京英创嘉友知识产权代理事务所(普通合伙) 11447 | 代理人: | 曾尧 |
地址: | 100085 北京市海淀区清河*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 跟踪 方法 装置 | ||
本公开是关于一种目标跟踪方法及装置。该方法包括:检测多个视频帧中的运动物体;根据多个视频帧中的运动物体确定跟踪的目标;提取所述目标的特征,并根据所述目标的特征训练卷积神经网络分类模型中的目标相关部分,其中,所述卷积神经网络分类模型中的目标无关部分采用预先训练的参数;对于当前跟踪的视频帧,以所述当前跟踪的视频帧的上一视频帧中的目标位置为中心,确定所述当前跟踪的视频帧中的候选区域;通过所述卷积神经网络分类模型从所述当前跟踪的视频帧中的各个候选区域中确定所述当前跟踪的视频帧中的目标区域。本公开能够针对不同视频中不同的目标进行跟踪,提高了目标跟踪的成功率。
技术领域
本公开涉及计算机视觉技术领域,尤其涉及目标跟踪方法及装置。
背景技术
视频目标跟踪是指对视频中的运动物体(例如行人、汽车等)进行跟踪,得到该运动物体在每一帧的位置。目标跟踪在视频监控、自动驾驶和视频娱乐等领域有着广泛的应用。
传统的目标跟踪方法包括光流(OpticalFlow)法和粒子滤波(PF,ParticleFilter)法。这两种目标跟踪方法基于简单的颜色模型或人工特征来进行跟踪,在遮挡、强光等情况下容易出现跟踪失败的结果。
目前,通常基于卷积神经网络(CNN,ConvolutionalNeuralNetwork)来进行目标跟踪。相关技术中的基于卷积神经网络的目标跟踪方法大多是基于图片分类来实现的。由于不同的视频或图像序列中的跟踪目标是不同的(例如某个物体在一个视频中是跟踪的目标,在另一个视频中则只是背景),因此,要想用一个卷积神经网络分类模型来完成所有类型的视频或图像序列中前景和背景的区分任务,是比较困难的。
发明内容
为克服相关技术中存在的问题,本公开提供一种目标跟踪方法及装置。
根据本公开实施例的第一方面,提供一种目标跟踪方法,包括:
检测多个视频帧中的运动物体;
根据多个视频帧中的运动物体确定跟踪的目标;
提取所述目标的特征,并根据所述目标的特征训练卷积神经网络分类模型中的目标相关部分,其中,所述卷积神经网络分类模型中的目标无关部分采用预先训练的参数;
对于当前跟踪的视频帧,以所述当前跟踪的视频帧的上一视频帧中的目标位置为中心,确定所述当前跟踪的视频帧中的候选区域;
通过所述卷积神经网络分类模型从所述当前跟踪的视频帧中的各个候选区域中确定所述当前跟踪的视频帧中的目标区域;
所述方法还包括:
根据最近跟踪的N个视频帧中的目标,对所述卷积神经网络分类模型中的目标相关部分进行更新训练,其中,N为大于1的整数;
包括:维持一个长度为N的目标图像列表,以保存最近跟踪的N个视频帧中的目标图像,并每隔L帧采用该目标图像列表对卷积神经网络分类模型中的目标相关部分进行更新训练。
在一种可能的实现方式中,确定所述当前跟踪的视频帧中的候选区域,包括:
采用高斯分布采样的方式,确定所述当前跟踪的视频帧中的候选区域。
在一种可能的实现方式中,通过所述卷积神经网络分类模型从所述当前跟踪的视频帧中的各个候选区域中确定所述当前跟踪的视频帧中的目标区域,包括:
通过所述卷积神经网络分类模型确定所述当前跟踪的视频帧中的各个候选区域中包含所述目标的概率;
将所述当前跟踪的视频帧中的各个候选区域中包含所述目标的概率最大的候选区域作为所述当前跟踪的视频帧中的目标区域。
在一种可能的实现方式中,所述方法还包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京小米移动软件有限公司,未经北京小米移动软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710971907.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:伪线保护方法及装置
- 下一篇:一种VPN网络及保护倒换方法