[发明专利]一种基于上下文相关和判别相关滤波器的目标跟踪方法在审
申请号: | 201811403138.0 | 申请日: | 2018-11-23 |
公开(公告)号: | CN109544600A | 公开(公告)日: | 2019-03-29 |
发明(设计)人: | 孙鹏;朱松豪;朱静怡;郭文波 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 南京正联知识产权代理有限公司 32243 | 代理人: | 王素琴 |
地址: | 210023 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 滤波器 上下文相关 跟踪对象 特征图 平移 目标跟踪 上下文信息 尺度 构建 滤波器计算 定位跟踪 基准网络 训练学习 跟踪器 鲁棒性 跟踪 卷积 三层 网络 追踪 | ||
本发明公开了一种基于上下文相关和判别相关滤波器的目标跟踪方法,包括步骤:S1、构建基于相关滤波器的端对端的跟踪网络,以所述跟踪网络为基准网络构建用于追踪跟踪对象的跟踪器;S2、利用VGG16模型的前三层卷积层生成特征图,并基于所述特征图以及上下文信息训练学习上下文相关滤波器和尺度相关滤波器;S3、结合所述上下文相关滤波器与所述特征图训练平移滤波器,以所述平移滤波器定位跟踪对象的位置;S4、基于跟踪对象的所述位置使用所述尺度相关滤波器计算跟踪对象的比例,并结合所述平移滤波器、尺度相关滤波器、特征图以及上下文信息定位下一帧中跟踪对象的位置;本发明能够有效提高目标跟踪的准确性和鲁棒性。
技术领域
本发明属于视觉跟踪技术领域,具体涉及一种基于上下文相关和判别相关滤波器的目标跟踪方法。
背景技术
目标跟踪是计算机视觉中一个热点问题,具有广泛的应用,如人机交互、机器人技术、自主驾驶、智能交通控制等。目前,已有的目标跟踪方法主要可以分为判别式方法和生成式方法。
生成式目标跟踪方法主要是利用生成模型来描述移动目标的表观特征,即只注重对目标本身的刻画而忽略背景信息,核心是研究如何利用包括稀疏表示、粒子滤波、mean-shift等在内的目标模型来搜索候选目标,以最小化重构误差找到目标位于下一帧位置。判别式方法是通过训练分类器实现目标和背景的辨别,也称作基于检测的目标跟踪。与生成类方法最大的区别,是分类器训练过程中用到了背景信息,这样分类器就能专注区分前景和背景。
近年来,深度学习方法广泛应用于目标跟踪研究,即利用深度学习训练的特征图可更好地表示目标的特征,从而提高目标跟踪效果。目前,基于深度学习的目标跟踪方法主要分为两类,一类是实时在线学习的目标跟踪方法,该方法利用辅助图片数据预训练深度模型,并在实时目标跟踪时利用跟踪目标的有限样本信息对预训练模型进行微调,以减少跟踪目标训练样本的需求,如深度学习跟踪器、结构化输出深度学习跟踪器等;另一类是利用现有分类数据集预训练的卷积神经网络提取特征,再利用观测模型进行分类获得满意的跟踪结果,如全卷积网络、树结构卷积神经网络等。
基于相关滤波器的目标跟踪方法由P.Martins于2012年提出,其本质为一种基于循环矩阵的核跟踪方法,即利用傅里叶变换实现目标的快速检测。然而,相关滤波器跟踪器通常具有非常有限的上下文信息。在利用感兴趣目标的初始位置估计下一帧中感兴趣目标的可能位置的过程中,估计结果受到许多因素的影响,包括光照变化、目标遮挡、外观变化、运动模糊、快速运动、尺度变化等,从而导致追踪精度降低,同时不能保证追踪的稳定性。
发明内容
本发明目的是针对上述中现有技术追踪精度受外在因素变化而导致追踪精度低和不稳定的问题,提供一种基于上下文相关和判别相关滤波器的目标跟踪方法,该方法利用特征图以及上下文信息训练学习上下文相关滤波器和尺度相关滤波器,具体技术方案如下:
一种基于上下文相关和判别相关滤波器的目标跟踪方法,所述方法包括步骤:
S1、构建基于相关滤波器的端对端的跟踪网络,以所述跟踪网络为基准网络构建用于追踪跟踪对象的跟踪器;
S2、利用VGG16模型的前三层卷积层生成特征图,并基于所述特征图以及上下文信息训练学习上下文相关滤波器和尺度相关滤波器;
S3、结合所述上下文相关滤波器与所述特征图训练平移滤波器,以所述平移滤波器定位跟踪对象的位置;
S4、基于跟踪对象的所述位置使用所述尺度相关滤波器计算跟踪对象的比例,并结合所述平移滤波器、尺度相关滤波器、特征图以及上下文信息定位下一帧中跟踪对象的位置。
进一步的,所述跟踪网络的构建包括:利用训练图像的特征图来学习相关滤波器,并利用相同的特征图通过互相关来搜索测试集中的相似图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811403138.0/2.html,转载请声明来源钻瓜专利网。