[发明专利]一种基于DeepSort和DeepEMD的检测跟踪方法和系统在审
申请号: | 202210817286.7 | 申请日: | 2022-07-12 |
公开(公告)号: | CN115511920A | 公开(公告)日: | 2022-12-23 |
发明(设计)人: | 邢卫国;鞠蓉;吴宇飞 | 申请(专利权)人: | 南京华康智能科技有限公司 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/246 |
代理公司: | 深圳市创富知识产权代理有限公司 44367 | 代理人: | 吴族平 |
地址: | 210000 江苏省南*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 deepsort deepemd 检测 跟踪 方法 系统 | ||
1.一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于,包括以下步骤:
步骤一:采用预训练的检测器获取监控视频中当前帧视图中的目标,得到多个检测目标的位置信息和置信度值;
步骤二:追踪目标的轨迹处理和运动状态估计,使用卡尔曼滤波器对每个跟踪器track预测追踪目标在当前帧的位置;
步骤三:数据关联和级联匹配,对所述步骤一中的检测目标和所述步骤二中的预测目标进行数据关联和级联匹配处理;
步骤四:更新跟踪器和卡尔曼滤波器,输出匹配计算结果。
2.根据权利要求1所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:所述步骤一过程中,检测器采用预先训练好的Yolov5s检测器,所述Yolov5s网络结构主要包括以下几部分:输入端、Backbone主干网络、Neck网络和预测网络。
3.根据权利要求2所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:所述Yolov5s网络结构输入端主要是对所述视频监控图像进行预处理操作;Backbone主干网络由Focus结构和CSP结构组合而成,用于获取图像的特征图;Neck网络由FPN结构与PAN结构组合而成,用于对所述Backbone主干网络获取的图像特征进行混合和组合,并将经过处理后的特征图像传送给预测网络;预测网络,采用GIOU_Loss作为Bounding box的损失函数,使用加权NMS的方式对锚框进行筛选,用于对图像特征进行预测,获得边界框并预测类别。
4.根据权利要求3所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:所述步骤二过程中,使用一个八维状态空间(u,v,r,h,)描述运动状态,其中,(u,v)是目标框的中心点坐标,r是目标框的长宽比,h为目标框的高度,表示对应目标框的速度信息。
5.根据权利要求4所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:所述步骤三过程中,数据关联包括运动信息的关联匹配和目标外观信息的关联匹配,所述运动信息的关联是采用马氏距离度量追踪目标预测结果和检测结果之间的距离,所述目标外观信息的关联是采用基于DeepEMD训练的网络模型进行目标的深度外观描述,并采用陆地移动距离度量方法进行图像间的相似性度量。
6.根据权利要求5所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:所述步骤四过程中,更新原有跟踪器的状态和卡尔曼滤波器参数,为新确认的追踪目标分配新的跟踪器,为新增加的未匹配成功的检测目标分配新的ID信息,删除匹配失败超出生命周期阈值的追踪目标及其跟踪器。
7.根据权利要求6所述的一种基于DeepSort和DeepEMD的检测跟踪方法,其特征在于:对于每个追踪目标,记录其自上一次检测结果与跟踪预测结果匹配之后的帧数为ak,若该目标的检测结果与跟踪预测结果正确关联后,则将ak重置为0;同时设置一个生命周期的阈值Amax,若ak超过Amax,则认为该追踪目标离开了追踪区域,则将其状态设为“删除”。
8.一种应用于权利要求1-7任一项所述的基于DeepSort和DeepEMD的检测跟踪方法的检测跟踪系统,其特征在于:该系统包括:检测单元、预测单元以及数据关联和匹配单元;
其中,所述检测单元用于采用预训练的检测器获取监控视频中当前帧视图中的目标,得到多个检测目标的位置信息和置信度值;
所述预测单元用于跟踪目标的轨迹处理和运动状态估计,使用卡尔曼滤波器对每个跟踪器track预测追踪目标在当前帧的位置;
所述数据关联和匹配单元用于对检测单元中的检测目标和预测单元中的预测目标进行数据关联和级联匹配处理;
所述更新单元用于更新跟踪器和卡尔曼滤波器,输出匹配计算结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京华康智能科技有限公司,未经南京华康智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210817286.7/1.html,转载请声明来源钻瓜专利网。