[发明专利]多目标跟踪方法、装置、设备及计算机可读存储介质有效
申请号: | 201811572486.0 | 申请日: | 2018-12-21 |
公开(公告)号: | CN109658442B | 公开(公告)日: | 2023-09-12 |
发明(设计)人: | 黄国恒;张挥谦;黄斯彤;胡可 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/73 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 罗满 |
地址: | 510060 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 多目标 跟踪 方法 装置 设备 计算机 可读 存储 介质 | ||
本发明实施例公开了一种多目标跟踪方法、装置、设备及计算机可读存储介质。其中,方法包括预先基于FCN算法、对多张预先标注车型信息和车辆位置的样本图像训练得到目标分割模型,用于从输入图像中分割得到车辆并计算各车辆的位置坐标。将待跟踪车辆图像输入目标分割模型中,得到该图像中各目标车辆的位置坐标信息;依次计算每个目标车辆与前一帧车辆图像中各源车辆的位置坐标的差值,并从各差值中确定最小差值;若目标车辆的最小差值不大于预设阈值,则目标车辆为最小差值对应源车辆在待跟踪车辆图像中的跟踪目标;反之,将目标车辆作为新出现的源车辆。本申请实现了视频序列中对多目标车辆的快速、准确跟踪,提升了多目标跟踪的实时性。
技术领域
本发明实施例涉及计算机视觉技术领域,特别是涉及一种多目标跟踪方法、装置、设备及计算机可读存储介质。
背景技术
近几十年,随着计算机视觉技术突飞猛进,计算速度的大幅提升,雷达、红外线和视频等领域的目标跟踪技术已突破了大部分限制并得到了不断的发展和完善。视频跟踪问题一般可以分为单目标跟踪问题和多目标跟踪问题。多目标跟踪因其在实际应用中的需求越来越多,也得到了相应的发展,与单目标跟踪问题相比多目标跟踪问题面临的情况更复杂包括目标之间的遮挡、合并和分离等情形。
多目标跟踪技术为一种对给定一个图像序列,找到图像序列中运动的目标物体,并将不同帧中的运动目标物体一一对应,然后给出不同目标物体的运动轨迹的技术。运动的目标物体可以是任意的,如行人、车辆、运动员、各种动物等等。
卷积神经网络为一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。它包括卷积层(conv-layer)和池化层(pooling layer)。卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络(Convolutional Neural Networks-简称CNN)。现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。
一般地,CNN的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征。一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。特征映射结构采用影响函数核小的sigmoid函数作为卷积网络的激活函数,使得特征映射具有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个数。卷积神经网络中的每一个卷积层都紧跟着一个用来求局部平均与二次提取的计算层,这种特有的两次特征提取结构减小了特征分辨率。
目前的多目标跟踪技术,目标检测跟踪耗时较长,实时性较差,不适用于实时性要求高的应用场景。
发明内容
本公开实施例提供了一种多目标跟踪方法、装置、设备及计算机可读存储介质,提高了多目标跟踪效率,实时性好。
为解决上述技术问题,本发明实施例提供以下技术方案:
本发明实施例一方面提供了一种多目标跟踪方法,包括:
将待跟踪车辆图像输入预先构建的目标分割模型中,得到所述待跟踪车辆图像中各目标车辆的位置坐标信息;
依次计算每个目标车辆与前一帧车辆图像中各源车辆的位置坐标的差值,并从各差值中确定最小差值;
判断每个目标车辆的最小差值是否不大于预设阈值;
若是,则目标车辆为所述最小差值对应源车辆在所述待跟踪车辆图像中的跟踪目标;
若否,则目标车辆作为在所述待跟踪车辆图像新出现的源车辆;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811572486.0/2.html,转载请声明来源钻瓜专利网。
- 上一篇:基于深度信息的前景检测方法及装置
- 下一篇:立体视觉匹配方法及系统