[发明专利]一种面向严重退化视频的实时光流分析跟踪方法在审
申请号: | 201710616690.7 | 申请日: | 2017-07-26 |
公开(公告)号: | CN107578426A | 公开(公告)日: | 2018-01-12 |
发明(设计)人: | 刘盛;冯缘;陈一彬;沈康;陈胜勇 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/269;G06T7/277;G06T7/90 |
代理公司: | 杭州斯可睿专利事务所有限公司33241 | 代理人: | 王利强 |
地址: | 310014 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 严重 退化 视频 实时 分析 跟踪 方法 | ||
技术领域
本发明属于计算机视觉技术领域,尤其是涉及到退化视频内的对象的实时跟踪方法。
背景技术
对象跟踪是计算机视觉的重要组成部分,它在机器人应用,人类行为分析,交通监控等方面有很多应用系统,军事对象检测,增强现实等。然而,对象跟踪已经成为一项非常具有挑战性的任务。为了解决这个问题,人们最近提出了相关滤波器跟踪目标,带来了显着的改进。
相关滤波可用来测量两个信号的相似度,在空域表示为两个函数的内积。相关计算类似卷积,根据卷积理论,使用快速傅里叶变换,在频域可表示为两个函数傅里叶变换的逐元素乘积,其大大提高了计算速度。二维图像信号可表示为两个信号,这两个信号相似度越高,则其相关输出值越大,由此可用于检测目标是否存在及其所在位置。但直接相关操作需要与参考图像精确匹配且不能有其他相似目标干扰,并且对噪声敏感,也不能处理外观、光照、旋转、尺度等变化,以及相关输出的峰值锐利度与噪声容忍度之间存在矛盾。因此在实际应用中,重点就是设计区分度高、能处理这些变化和影响的相关滤波器,提高目标位置响应,抑制其他部位的响应,并且降低对噪声、旋转、尺度变化等的鲁棒性。
相关滤波器通过将待检测图像与滤波器进行相关处理得到相应结果,再根据获得的滤波输出来进行判别与定位。理想的滤波器期望是在相关输出值中目标位置产生强峰值而其他位置近似为0,但在实际应用中会有噪声。相关滤波器有着诸如移不变性、噪声鲁棒性、良好退化性等特点,在模式识别领域有着许多成功应用。
然而,当遇到严重退化的情况时,目前的算法不能达到令人满意的结果。同时,很少有人将退化现象本身包含的信息引入追踪过程。
发明内容
为了克服现有严重退化视频分析方式的实时性较差、无法实现实时跟踪、跟踪准确率较低的不足,本发明提供了一种实时性较好、有效实现实时跟踪、跟踪准确率较高的面向严重退化视频的实时光流分析跟踪方法。
本发明解决其技术问题所采用的技术方案是:
一种面向严重退化视频的实时光流分析跟踪方法,包括如下步骤:
1)统计退化特征
对每一个像素计算其运动情况,并以此来描述这个像素的运动退化情况,单一像素的方向评估是光流法获得的,其过程如下:
1.1)梯度特征分布
1.1.1)、色彩和伽马归一化
首先需要将整个图像进行归一化;
1.1.2)、计算图像梯度
计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;使用一个一维的离散微分模板在在水平和垂直两个方向上对图像进行处理;
1.1.3)、梯度方向分布分析
分块单元中的每一个像素点都为某个基于梯度方向的直方图通道投票,投票采取加权投票的方式;
1.1.4)、梯度归一化
将分块单元组合成大的区间并对梯度强度做归一化。
1.2)颜色特征分布
在给定的颜色空间基础上.统计每种颜色分量的像素数占图像总像素数的比例,从而得到图像各种颜色分量的比例分布;
1.3)运动方向特征分布
2)构建统计退化模型,过程如下:
对第i帧的视频帧xi,使用矩形框li来表示目标的包围盒,并将li作为目标在xi中的当前位置,li选自候选包围盒集合Si以取得最大响应:
T(xi,l)是视频帧的变换函数,f(T(xi,l);ρi-1)可以依据模型参数ρ=(α,β,ω),计算得到目标在图像xi对应矩形li的响应,选取最大响应时的矩形l作为最优的结果li,其中α为梯度方向分布参数,β为颜色分布参数,ω为运动退化方向分布参数;
模型参数ρ通过最小化损失函数L(ρ;Xi)求出,其中包含之前每一帧中目标的位置:
ρi=arg minρ∈Q{L(ρ;Xi)+λG(ρ)}(2)
其中Q是参数集合,正则项G及权重λ用于完善模型并消除过拟合的情况,通过对三种不同特征分布的计算,响应函数为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710616690.7/2.html,转载请声明来源钻瓜专利网。