[发明专利]一种基于加权稀疏协作模型的目标跟踪方法在审
申请号: | 201710562703.7 | 申请日: | 2017-07-11 |
公开(公告)号: | CN107341479A | 公开(公告)日: | 2017-11-10 |
发明(设计)人: | 陈思宝;金维国;苌江;宋维明;罗斌 | 申请(专利权)人: | 安徽大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 安徽省合肥新安专利代理有限责任公司34101 | 代理人: | 陆丽莉,何梅生 |
地址: | 230601 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 加权 稀疏 协作 模型 目标 跟踪 方法 | ||
技术领域
本发明属于视频监控领域,提出了一种基于加权稀疏协作模型的目标跟踪方法,对一个视频序列中的运动目标进行稳定的跟踪。
背景技术
近年来,目标跟踪在计算机视觉领域扮演着非常重要的角色,同时也是其研究热点。随着目标跟踪技术的不断发展,它在各种各样实际的应用中都发挥着至关重要的作用,比如:视频监控、人机交互、行为分析、虚拟现实、自动控制系统等多种实际场景。因此,各种目标跟踪方法应运而生,主要有基于产生式模型的目标跟踪方法,也有基于判别式模型的目标跟踪方法。
产生式模型是在目标检测的基础上,对前景目标进行表观建模后,按照一定的跟踪策略估计跟踪目标的最优位置,判别式跟踪方法则是通过对每一帧图像进行目标检测来获取跟踪目标状态。然而在基于稀疏产生式模型以及基于稀疏判别式模型中均并没有考虑到测试样本与字典原子(也就是训练样本)之间的相关性,这样会使得到的稀疏编码系数不够精确,从而影响了跟踪的精度。
为了提高运动目标的跟踪精度,研究人员采用稀疏表示混合模型的跟踪方法,综合利用了全局模板和局部表达,能高效地处理目标表观变化,然而混合模型在求解系数编码系数过程中,得到的系数稀疏编码不能足够的稀疏,从而对运动目标的定位不够准确,无法实现对目标的长时间稳定跟踪。
发明内容
为解决上述问题,本发明提出了一种基于加权稀疏协作模型的目标跟踪方法,以期能充分利用样本的分布特性以及局部信息,将样本之间的相关性引入到稀疏协作模型中,从而能够实现对某一视屏监控场景内的运动目标进行实时运动估计以及定位,保证长时间稳定跟踪。
本发明为解决技术问题采用如下技术方案:
本发明一种基于加权稀疏协作模型的目标跟踪方法的特点是按如下步骤进行:
步骤1、选取一段帧数为fmax的视频序列,并从第一帧图像数据中选取跟踪的目标;
步骤2、定义任意一帧为f,并初始化f=1;
步骤3、利用粒子滤波算法对所述视频序列中第f帧图像数据进行处理,得到kmax个目标候选框,并对每个目标候选框进行归一化处理;
步骤4、利用加权稀疏表示的判别式算法对所述第f帧图像数据中归一化后的第kf个目标候选框进行处理,得到第kf个目标候选框的判别式评分
步骤4.1、判断f=1是否成立,若成立,则将f+1赋值给f后,返回步骤3;否则,执行步骤4.2;
步骤4.2、在第f-1帧图像数据的跟踪结果的周围选取n1个正模板和n2个负模板并有表示正模板中第i个训练样本,表示负模板中第i个训练样本,且q为所述目标候选框的向量大小;由所述n1个正模板A+和n2个负模板A-经过归一化处理后再合并成判别式模型的字典且n=n1+n2;
步骤4.3、以所述判别式模型的字典A作为判别式算法的输入,对第kf个目标候选框进行处理,得到第kf个目标候选框的全局最优稀疏系数
步骤4.4、将所述全局最优稀疏系数α拆分为正向量和负向量并计算正重构误差与负重构误差x为第kf个目标候选框所对应的向量;
步骤4.5、利用式(1)得到第kf个目标候选框判别式评分
式(1)中,σ为调节参数;
步骤5、利用加权稀疏表示的产生式算法对所述第f个帧图像数据中第kf个目标候选框进行处理,得到所述第kf个目标候选框的产生式评分
步骤5.1、输入第f个帧图像数据;
步骤5.2、将输入的图像数据分为M个小块,且将每一个小块的灰度值都转化为一个灰度值向量,向量大小为p;
步骤5.3、利用K-means聚类算法对所述第一帧图像数据中跟踪目标所在的小块的灰度值向量进行处理,得到产生式模型的字典c为聚类中心的个数;
步骤5.4、利用滑动窗口将所述第kf个目标候选框划分为m个图像小块;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于安徽大学,未经安徽大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710562703.7/2.html,转载请声明来源钻瓜专利网。