[发明专利]多目标跟踪方法、装置、存储介质及电子设备在审
| 申请号: | 202010125533.8 | 申请日: | 2020-02-27 |
| 公开(公告)号: | CN111369590A | 公开(公告)日: | 2020-07-03 |
| 发明(设计)人: | 李蒙 | 申请(专利权)人: | 北京三快在线科技有限公司 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246 |
| 代理公司: | 北京英创嘉友知识产权代理事务所(普通合伙) 11447 | 代理人: | 魏嘉熹 |
| 地址: | 100190 北京市海*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 多目标 跟踪 方法 装置 存储 介质 电子设备 | ||
1.一种多目标跟踪方法,其特征在于,所述方法包括:
在预设检测框内,对目标帧图像进行目标检测,确定所述目标帧图像中多个目标的特征信息,所述特征信息包括目标的尺寸信息和位置信息;
根据所述目标帧图像中预设跟踪框内的目标以及预设跟踪模型,确定预估跟踪目标;
针对所述多个目标中的每个目标,在多个所述预估跟踪目标中,确定与所述目标的关联度大于或等于预设关联度的预估跟踪目标;
根据所述预估跟踪目标位于所述预设跟踪框内的概率,计算所述预估跟踪目标的跟踪置信度;
响应于所述预估跟踪目标的跟踪置信度小于或等于第一预设置信度,将检测到的所述目标的特征信息作为所述目标帧图像的下一帧图像待跟踪目标的特征信息,并进行目标跟踪。
2.根据权利要求1所述的方法,其特征在于,所述将检测到的所述目标的特征信息作为所述目标帧图像的下一帧图像待跟踪目标的特征信息进行目标跟踪,包括:
确定检测到的所述目标与所述预估跟踪目标之间的相似度;
响应于所述相似度大于或等于第一预设相似度,将检测到的所述目标的特征信息作为所述目标帧图像的下一帧图像待跟踪目标的特征信息进行目标跟踪。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述预估跟踪目标的跟踪置信度小于或等于第二预设置信度,且所述目标帧图像之前的帧图像中、历史跟踪到的目标间的位置偏差小于或等于预设差值,扩大所述预设检测框的范围,所述第二预设置信度小于所述第一预设置信度。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
响应于在扩大后的所述预设检测框内检测到目标,确定检测到的所述目标与历史跟踪到的目标间的相似度;
响应于所述相似度大于或等于第二预设相似度,将检测到的所述目标的特征信息作为所述目标帧图像的下一帧图像待跟踪目标的特征信息进行目标跟踪。
5.根据权利要求3所述的方法,其特征在于,所述扩大所述预设检测框的范围,包括:
确定所述预估跟踪目标的位置信息和尺寸信息;
以所述预估跟踪目标的位置为中心,并根据所述预估跟踪目标的尺寸,确定扩大后的所述预设检测框的范围。
6.根据权利要求1-5任一所述的方法,其特征在于,所述对所述目标帧图像进行目标检测,包括:
按照预设检测周期,对所述目标帧图像进行目标检测,所述目标帧图像为每一所述预设检测周期中的初始帧图像,或者所述目标帧图像为每一所述预设检测周期中的结束帧图像。
7.根据权利要求1-5任一所述的方法,其特征在于,所述确定与所述目标的关联度大于或等于预设关联度的预估跟踪目标,包括:
响应于预估跟踪目标对应的预设跟踪框与所述预设检测框之间的重叠度IoU大于或等于第一预设阈值,确定所述预估跟踪目标为与所述目标的关联度大于或等于预设关联度的预估跟踪目标;或者
响应于预估跟踪目标对应的预设跟踪框与所述预设检测框之间的广义重叠度GIoU大于或等于第二预设阈值,确定所述预估跟踪目标为与所述目标的关联度大于或等于预设关联度的预估跟踪目标。
8.一种多目标跟踪装置,其特征在于,所述装置包括:
检测模块,用于在预设检测框内,对目标帧图像进行目标检测,确定所述目标帧图像中多个目标的特征信息,所述特征信息包括目标的尺寸信息和位置信息;
第一确定模块,用于根据所述目标帧图像中预设跟踪框内的目标以及预设跟踪模型,确定预估跟踪目标;
第二确定模块,用于针对所述多个目标中的每个目标,在多个所述预估跟踪目标中,确定与所述目标的关联度大于或等于预设关联度的预估跟踪目标;
计算模块,用于根据所述预估跟踪目标位于所述预设跟踪框内的概率,计算所述预估跟踪目标的跟踪置信度;
跟踪模块,用于响应于所述预估跟踪目标的跟踪置信度小于或等于第一预设置信度,将检测到的所述目标的特征信息作为所述目标帧图像的下一帧图像待跟踪目标的特征信息,并进行目标跟踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京三快在线科技有限公司,未经北京三快在线科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010125533.8/1.html,转载请声明来源钻瓜专利网。





