[发明专利]一种基于DeepSort和DeepEMD的检测跟踪方法和系统在审
申请号: | 202210817286.7 | 申请日: | 2022-07-12 |
公开(公告)号: | CN115511920A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 邢卫国;鞠蓉;吴宇飞 | 申请(专利权)人: | 南京华康智能科技有限公司 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/246 |
代理公司: | 深圳市创富知识产权代理有限公司 44367 | 代理人: | 吴族平 |
地址: | 210000 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 deepsort deepemd 检测 跟踪 方法 系统 | ||
本发明公开了一种基于DeepSort和DeepEMD的检测跟踪方法和系统,包括以下步骤:采用预训练的检测器获取监控视频中当前帧视图中的目标,得到多个检测目标的位置信息和置信度值;追踪目标的轨迹处理和运动状态估计,使用卡尔曼滤波器对每个跟踪器track预测追踪目标在当前帧的位置;数据关联和级联匹配,对所述步骤一中的检测目标和所述步骤二中的预测目标进行数据关联和级联匹配处理;更新跟踪器和卡尔曼滤波器,输出结果,该系统包括:检测单元、预测单元以及数据关联和匹配单元。本发明整个检测跟踪过程能够很好地解决现有的多目标跟踪技术不能使跟踪速度和跟踪精度同时保持高水准的问题,并能有效改善目标遮挡情况下的跟踪问题。
技术领域
本发明涉及计算机视觉的技术领域,尤其涉及一种基于DeepSort和 DeepEMD的检测跟踪方法和系统。
背景技术
Tracking-by-Detections是多目标跟踪算法的主流方式,大部分算法都采 用流网络公式和概率图形模型的方式,将处理整个跟踪过程看作全局优化问题, 但这些算法往往基于逐帧的数据关联,计算代价较大且复杂度高,不适合实时 高效的跟踪任务。SORT算法是一种注重简单、有效算法的多目标跟踪的实用 方法。SORT算法在传统算法的基础上,通过卡尔曼滤波处理每帧的关联性,再 通过匈牙利算法进行关联度量,使其检测性能提升了几十倍。但该方法存在ID 频繁切换的问题,对于遮挡严重、运动不稳的目标跟踪效果却不理想。
DeepSort在SORT目标跟踪的基础上引入了外观特征提取网络,通过结合 运动信息和外观信息实现关联度量,在一定程度上增加了目标丢失和遮挡情况 下跟踪挡的鲁棒性,易于实现且高效,能够适用于在线场景。DeepSort算法中 的外观信息关联采用的是一个简单的CNN残差网络,主要提取目标的全局外观 信息,再通过余弦距离进行相似度关联计算,对于当目标被部分遮挡时,背景 信息和目标的外观信息对于外观匹配的影响是相同的,此时的注意力应该集中 在目标局部信息上。
基于以上几个问题,亟需一种同时均衡速度和精度,又能很好解决目标遮 挡情况下的检测跟踪方法。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较 佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或 省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略 不能用于限制本发明的范围。
鉴于上述现有一种基于DeepSort和DeepEMD的检测跟踪方法和系统存在 的问题,提出了本发明。
因此,本发明目的是提供一种基于DeepSort和DeepEMD的检测跟踪方法 和系统,其主要目的在于解决现有的多目标跟踪技术不能使跟踪速度和跟踪精 度同时保持高水准的问题,并能有效改善目标遮挡情况下的跟踪问题。
为解决上述技术问题,本发明提供如下技术方案:
一种基于DeepSort和DeepEMD的检测跟踪方法,包括以下步骤:
步骤一:采用预训练的检测器获取监控视频中当前帧视图中的目标,得到 多个检测目标的位置信息和置信度值;
步骤二:追踪目标的轨迹处理和运动状态估计,使用卡尔曼滤波器对每个 跟踪器track预测追踪目标在当前帧的位置;
步骤三:数据关联和级联匹配,对所述步骤一中的检测目标和所述步骤二 中的预测目标进行数据关联和级联匹配处理;
步骤四:更新跟踪器和卡尔曼滤波器,输出匹配计算结果。
作为本发明所述一种基于DeepSort和DeepEMD的检测跟踪方法的一种优 选方案,其中:所述步骤一过程中,检测器采用预先训练好的Yolov5s检测器, 所述Yolov5s网络结构主要包括以下几部分:输入端、Backbone主干网络、Neck 网络和预测网络。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京华康智能科技有限公司,未经南京华康智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210817286.7/2.html,转载请声明来源钻瓜专利网。