[发明专利]一种基于背景感知的多跟踪器融合目标跟踪方法有效
申请号: | 202110347007.0 | 申请日: | 2021-03-31 |
公开(公告)号: | CN112991390B | 公开(公告)日: | 2023-08-18 |
发明(设计)人: | 尹明锋;周文娟;游丽萍;花旭;金圣昕;周林苇;贝绍轶 | 申请(专利权)人: | 江苏理工学院;江苏省中以产业技术研究院 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/194;G06T7/44 |
代理公司: | 南京聚匠知识产权代理有限公司 32339 | 代理人: | 刘囝 |
地址: | 213001 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 背景 感知 跟踪 融合 目标 方法 | ||
1.一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,包括如下步骤:
步骤S1、根据视频序列第一帧输入图片I1和目标框,以及后续输入图片It+1,t∈[1,L-1],L为视频序列总帧数,xt=(w,h)为中心点坐标,ct=(cw,ch)为目标尺度;
步骤S2、提取目标区域的颜色直方图,采用基于粒子滤波的目标跟踪方法进行跟踪,得到目标的位置信息
步骤S3、采用背景感知相关滤波器进行目标跟踪,获取目标位置信息;
步骤S4、采用尺度池技术对目标尺度进行估计,并进行更新,得到最新的目标尺度c=(cw,ch);
步骤S5、对目标模型进行更新;
步骤S6、重复步骤S2-S5,直至当前序列所有帧跟踪结束;
所述步骤S3中采用背景感知相关滤波器进行目标跟踪获取目标位置信息的具体步骤为:
步骤S31、按照步骤S2中得到的目标位置信息划分目标和背景区域,提取灰度信息fti,i=0,1,2,3,4作为背景感知相关滤波器的特征,其中,ft0为t时刻目标区域的灰度表示,ft1、ft2、ft3、ft4分别为t时刻四块背景区域的特征表示;
步骤S32、通过训练滤波器参数,其中,符号★代表fti和h之间的循环相关操作,为相关滤波器,为输出期望值,λ1为正则化参数,取0.0001;λ2为回归参数,取0.4;为背景信息约束项;将目标函数转化成其中,得到滤波器对应的解为其中,为傅里叶变换,和分别为和的共轭转置;
步骤S33、通过傅里叶反变换求解得到响应图为其中,为傅里叶反变换,zt为候选区域的特征表示,为点乘操作,目标定位信息为响应图Rt最大值处
2.根据权利要求1所述的一种基于背景感知的多跟踪器融合目标跟踪方法,其特征在于,所述步骤S2中粒子滤波的目标跟踪过程的具体步骤为:
步骤S21、计算目标区域的m维的颜色直方图其中,B为所选择目标区域的像素点数;yb为目标区域中第b个像素点坐标,b∈[1,B];h(yb)为直方图量化的函数;u为直方图的区间索引号,u∈[1,m];δ表示Kronecker函数;
步骤S22、按照一阶模型xt+1=xt+wnt随机生成N个粒子,生成的粒子坐标为表示t时刻第n个粒子的位置信息,wnt为高斯随机噪声;
步骤S23、计算粒子集合中各样本所确定m维的目标区域直方图其中,为以第n个粒子为中心的候选区域中第b个像素点坐标,n∈[1,N];
步骤S24、计算目标区域与候选区域颜色直方图的Bhattacharyya距离,并确定每个粒子的权重系数kt(n),计算公式为kt(n)=C·exp(-pn),C为归一化系数,
步骤S25、计算粒子滤波跟踪算法的定位信息,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏理工学院;江苏省中以产业技术研究院,未经江苏理工学院;江苏省中以产业技术研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110347007.0/1.html,转载请声明来源钻瓜专利网。