[发明专利]基于改进多示例学习算法的运动目标跟踪方法有效
申请号: | 201310276316.9 | 申请日: | 2013-07-03 |
公开(公告)号: | CN103325125A | 公开(公告)日: | 2013-09-25 |
发明(设计)人: | 贾松敏;王丽佳;白聪轩;李秀智;王爽 | 申请(专利权)人: | 北京工业大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/62 |
代理公司: | 北京思海天达知识产权代理有限公司 11203 | 代理人: | 张慧 |
地址: | 100124 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于计算机视觉与模式识别领域,公开了一种基于改进的多示例学习算法的目标跟踪方法。首先根据压缩感知理论设计随机测量矩阵。然后利用多示例学习算法在当前跟踪结果小邻域内采样示例构成正包,同时在其大邻域圆环内采样示例构成负包。对每个示例,在图像平面提取表征目标的特征,并利用随机感知矩阵对其降维。根据提取的示例特征在线学习弱分类器,并在弱分类器池中选择判别能力较强的弱分类器构成强分类器。最后,当跟踪到新的目标位置时,利用当前跟踪结果与目标模板的相似性分数在线自适应调整分类器更新程度参数。本发明解决了现有算法中跟踪效果易受光照改变、姿态变化、复杂背景干扰、目标快运动等影响的问题。 | ||
搜索关键词: | 基于 改进 示例 学习 算法 运动 目标 跟踪 方法 | ||
【主权项】:
1.一种基于改进多示例学习算法的目标跟踪方法,其特征在于包括以下几个步骤:步骤一,进行初始化;①在视频的初始帧通过手动框选方法确定目标位置
②基于压缩感知理论设计一个满足RIP条件的稀疏随机测量矩阵
矩阵R中各元素rij为:
式中,s以平均概率在{2,3,4}中随机选取;步骤二,提取正、负包,方法如下:①提取正包:在以当前帧目标位置
为圆心、r为半径的圆内采样N个示例x组成正包Xr,即
l(x)为采样示例所在位置;②提取负包:在以当前帧目标位置
为圆心、r为内圆半径、β为外圆半径的圆环内采样约L个示例组成负包Xr,β,即:
③提取图像特征:在图像平面提取正包和负包中各示例的Haar-like特征Z=(z1,z2,...,zQ);④特征降维:利用随机测量矩阵将提取的特征从高维图像空间降到低维空间,得到表征目标的压缩特征:V=RZ式中,V=(v1,v2,...,vM),M<<Q是低维子空间的特征向量;则实际提取的特征为:v i = Σ j = 1 N r r ij rects ij N r ]]> 式中,vi,i∈(1,M)为降维后的压缩特征;rectsij为在示例中随机选取的图像块;Nr为图像块的数目,在{2,3,4}中随机选取;rij为随机测量矩阵的元素值,在{-1,1}中等概率随机选取;步骤三,训练分类器,方法如下:①训练弱分类器;假设正、负示例的先验概率相等,即:p(y=1)=p(y=0),p(y=1)是正示例的先验概率,p(y=0)是负示例的先验概率;则由所有示例的第k个压缩特征训练得到第k个弱分类器hk(x):h k ( x ) = log ( p ( y = 1 | v k ( x ) p ( y = 0 | v k ( x ) ) ]]> 式中,hk(x)为第k个弱分类器,x表示所有示例,vk为由步骤二提取的第k个特征,y∈{0,1}表示示例标签,p(y=1|vk(x))表示正包中所有示例的第k个压缩特征的概率,p(y=0|vk(x))为负包中所有示例的第k个压缩特征的概率;正、负示例特征服从高斯分布,即:p ( v k ( x ) | y = 1 ) ~ N ( μ k 1 , σ k 1 ) ]]>p ( v k ( x ) | y = 0 ) ~ N ( μ k 0 , σ k 0 ) , ]]> 式中,xij为第i个包中第j个示例,vk(xij)为示例xij的第k个压缩特征;
是第k个弱分类器的参数,
是正包中所有示例的第k个特征的均值,σ k 1 = 1 N Σ j = 0 N - 1 ( v k ( x ij ) - μ k 1 ) 2 ]]> 是正包中所有示例的第k个特征的方差;μ k 0 = 1 L Σ j = N N + L - 1 v k ( x ij ) ]]> 是负包中所有示例的第k个特征的均值,
是负包中所有示例的第k个特征的方差,L=65为负包中示例个数;共训练得到M个弱分类器,组成弱分类器池
②初始化强分类器H0=0,令k=1;③当k≤K时,计算:▿ L ( H ) ( x ij ) | H = H k - 1 = y i × ( σ ( H ( x ij ) ) ( 1 - σ ( H ( x ij ) ) ) Σ m = 1 N - 1 σ ( H ( x im ) ) ) - ( 1 - y i ) × ( σ ( H ( x ij ) ) ( 1 - σ ( H ( x ij ) ) ) Σ m = N N + L - 1 ( 1 - σ ( H ( x im ) ) ) ) ]]> 式中,
为第i个包中第j个示例的概率,yi∈{0,1}为包的标识;
为在弱分类器池
中选取k-1个弱分类器所构成的强分类器;否则转到步骤⑩;④初始化Lm=0,其中m=1,...,M;⑤令m=1;⑥当m≤M时,令i=0,否则转到步骤⑨;⑦当i≤1时,令j=0,否则令m=m+1,并转到步骤⑥;⑧当j≤N+L-1时,循环计算j=j+1,以及弱分类器与极大似然概率的内积:< h , ▿ L ( H ) > = 1 N + L Σ j = 0 N + L - 1 h ▿ L ( H ) ( x ij ) , ]]> 即:L m ← L m + h m ▿ L ( H ) ( x ij ) | H = H k - 1 ; ]]> 否则,令i=i+1,并转到步骤⑦;⑨根据最大化弱分类器与极大似然概率的内积的原则,在弱分类器池中选择具有最低错误率的k个弱分类器h k = arg max h ∈ φ < h , ▿ L ( H ) > | H = H k - 1 , ]]> 即:m * = arg max m L m , ]]>h k ( x ) ← h m * ( x ) , ]]> Hk=Hk+hk(x);令k=k+1,并转到步骤③;⑩输出强分类器:H(x)=Σkhk(x);步骤四,目标跟踪;根据相似性分数最大原则,利用步骤三学习得到的强分类器在目标候选集中将目标从背景中分离出来;具体步骤如下:①提取样本候选集:新一帧图像中,在以前一帧目标位置
为中心,S为半径的圆内采样候选样本x组成候选样本集XS,即:
②提取候选样本特征:按照步骤二的第③、④步骤提取各样本的压缩特征;③跟踪目标:利用步骤三中得到的强分类器对采集的候选样本分类,计算出与目标相似性分数最大的样本作为当前目标的位置![]()
l t * = l ( arg max H ( x ) ) x ∈ X s ]]> 式中,H(x)为相似性分数,最大值为Hmax;步骤五,更新分类器;根据当前跟踪结果与目标模型的相似性分数Hmax更新分类器;具体方法如下:①提取正包:当跟踪到新目标时,按步骤二在跟踪目标小邻域范围内采样N个示例作为正包;②提取特征:按照步骤二的步骤③、④对每个示例提取表征目标的压缩特征V=(v1,...,vM);③更新分类器:按照如下规则在线更新弱分类器参数![]()
μ k 1 ← λ u k 1 + ( 1 - λ ) μ 1 σ k 1 ← λ ( σ k 1 ) 2 + ( 1 - λ ) ( σ 1 ) 2 + λ ( 1 - λ ) ( μ k 1 - μ 1 ) 2 ]]> 式中,λ为更新程度,其值越小表示更新速度越快,目标模板特征在分类器更新中所占比例越少;
是正包中所有示例的第k个特征的均值;
是正包中所有示例的第k个特征的方差;④提取负包:按步骤二在以当前跟踪位置为圆心、r为内圆半径、β为外圆半径的圆环中提取L个示例组成负包;⑤提取特征:按照步骤二的步骤③、④对对每个示例提取表征目标的压缩特征V=(v1,...,vM);⑥更新分类器:按照如下规则在线更新弱分类器参数![]()
μ k 0 ← λ u k 0 + ( 1 - λ ) μ 0 σ k 0 ← λ ( σ k 0 ) 2 + ( 1 - λ ) ( σ 0 ) 2 + λ ( 1 - λ ) ( μ k 0 - μ 0 ) 2 ]]> 式中,
为负包中所有示例的第k个特征的均值;
为负包中所有示例的第k个特征的方差;设定高、低两个阈值;当前跟踪结果与目标模型相似性分数大于高阈值时,分类器的更新主要依赖于当前跟踪结果,以克服光照、位姿等造成的外观变化对跟踪结果的影响;当前跟踪结果与目标模型相似性分数小于低阈值时,分类器的更新主要依赖于目标模型,以避免目标漂移及误跟踪;当前跟踪结果与目标模型的相似性分数在两个阈值之间时,分类器同时依赖于当前跟踪结果和目标模型;更新规则如下所示:λ = 0.05 , 0.25 , 0.85 , TH s H max > TH l < H max < TH l H max < TH s ]]> 式中,THs为设定的低阈值,THl为高阈值。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310276316.9/,转载请声明来源钻瓜专利网。