[发明专利]一种融合位置预测与相关滤波的目标跟踪方法在审
申请号: | 202110249790.7 | 申请日: | 2021-03-08 |
公开(公告)号: | CN112927261A | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 卢有亮;罗壹航;陈勇;唐豪;郑伟生;罗建平 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/62 |
代理公司: | 成都虹盛汇泉专利代理有限公司 51268 | 代理人: | 王伟 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 融合 位置 预测 相关 滤波 目标 跟踪 方法 | ||
1.一种融合位置预测与相关滤波的目标跟踪方法,其特征在于,包括:
S1、根据初始帧视频图像中由视频序列预先给定的标签中的目标位置和大小,计算核相关滤波器的初始系数;
S2、后续帧视频图像,以上一帧视频图像的目标位置为中心,将目标范围扩大2.5倍作为目标搜索区域,计算核相关滤波器响应;
S3、以响应最大值所对应的位置作为初始目标结果,将此结果作为观测值,使用卡尔曼滤波器对跟踪结果进行修正;
S4、将修正得到的预测值作为新的目标中心,并将预测值记录到运动轨迹点集,以新的目标中心选取目标范围2.5倍大小的图像区域作为新的目标样本,从而更新核相关滤波器的系数;
S5、重复步骤S2-S4,直到跟踪结束,得到目标跟踪轨迹。
2.根据权利要求1所述的一种融合位置预测与相关滤波的目标跟踪方法,其特征在于,步骤S1具体包括以下分步骤:
S11、根据初始帧视频图像中由视频序列预先给定的标签,得到目标选框,选取目标选框2.5倍大小的含背景图像的视频图像范围作为目标样本x;
S12、提取目标样本x的fHoG特征xfHoG,利用循环矩阵的特性,生成训练样本C;
S13、通过高斯分布标记这些训练样本C,根据样本中心离目标的距离远近分别赋值(0,1)的数;
S14、将经步骤S13处理后的训练样本映射到核空间内,基于岭回归训练分类器,使通过分类器预测到的样本标记与真实标记差距最小,求解出核相关滤波系数α。
3.根据权利要求2所述的一种融合位置预测与相关滤波的目标跟踪方法,其特征在于,步骤S13中离目标越近值越趋近于1,越远值越趋近于0。
4.根据权利要求3所述的一种融合位置预测与相关滤波的目标跟踪方法,其特征在于,步骤S2具体包括以下分步骤:
S21、在后续帧中,选取上一帧预测到的目标选框的2.5倍大小的窗口为目标样本;
S22、提取目标样本的fHoG特征并利用循环矩阵生成训练样本C;计算每个样本对应的核相关滤波器响应,响应最大位置即为新的目标选框所在的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110249790.7/1.html,转载请声明来源钻瓜专利网。