[发明专利]一种目标跟踪方法及装置在审
申请号: | 201911148440.0 | 申请日: | 2019-11-21 |
公开(公告)号: | CN112927258A | 公开(公告)日: | 2021-06-08 |
发明(设计)人: | 张盼 | 申请(专利权)人: | 株式会社日立制作所 |
主分类号: | G06T7/20 | 分类号: | G06T7/20;G06K9/00 |
代理公司: | 北京银龙知识产权代理有限公司 11243 | 代理人: | 黄灿;姜精斌 |
地址: | 日本*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目标 跟踪 方法 装置 | ||
本发明实施例提供了一种目标跟踪方法及装置,其中,所述方法包括:从视频数据的第一图像中,检测得到至少一个待跟踪的第一目标图像;根据第一图像之前已跟踪到的目标的自相似度,更新所述目标对应的相似度阈值,以及,根据第一图像之前已跟踪到的所述目标的运动信息,更新所述目标对应的距离阈值;根据每个目标对应的相似度阈值和距离阈值,将所述第一目标图像与匹配数据库中的目标图像进行匹配,识别所述第一目标图像所属的第一目标;本发明实施例根据目标的自相似度和运动信息,自适应的更新相似度阈值和距离阈值,可以实现较好的目标跟踪,提高了目标跟踪的成功率,进而可以提高后续行为分析的准确性。
技术领域
本发明涉及图像处理技术领域,具体而言,本发明涉及一种目标跟踪方法及装置。
背景技术
在人物行为分析领域中,通常使用摄像头采集视频数据,然后利用视频分析技术来检测人物的状态、行为及相互关联信息。例如,在养老领域中,通常利用基于序列图像的行为分析来实现老人的跌倒检测。在以上方法中,需要实现以下技术:行人检测、特征(如关节点)提取、跟踪以及动作判断等。其中,跟踪技术用于获取相邻帧图像中不同行人的关系,进而获取不同行人的连续特征,为后续的动作判断提供时序特征数据。
目前常用的一种跟踪方法包括有基于相似度比较的跟踪方法,其主要技术手段是对于当前图像,获取之前一定帧图像的目标以生成比对库;对于当前图像中检测到的目标,计算此目标与比对库中目标的相似度及距离,获取距离小于一定阈值,且相似度高于一定阈值的最相似目标,作为同一目标,实现跟踪。
从上述方法的实现手段可以看出,其识别同一目标的方式严重依赖于上述距离及相似度阈值的设定。而在跌倒检测等行为分析领域中,人物行为(如跌倒动作)可能发生迅速,且人物姿态发生剧烈变化,导致相似度变化较大,因此以上方法在上述领域中容易发生跟踪失败,进而对动作检测的精度产生不利影响。
现有技术的另一种判断目标跟踪效果的方法,其采用的技术手段:获得样本目标图像,并对所述样本目标图像采用角点检测获得样本角点序列;获取跟踪目标图像,对跟踪目标图像采用角点检测获得跟踪目标图像的角点序列;根据所述跟踪目标图像的角点序列与所述样本目标图像的角点序列判定跟踪目标的效果。该方法中,提取检测到的目标的直方图特征,比较直方图特征的相似性,基于指定阈值对相似性进行匹配,获取目标间的关联,实现跟踪。该方法仍然存在上述类似的阈值问题。
可以看出,在人物行为分析领域中,现有技术目前存在以下问题:
问题1:在行为检测(如跌倒检测)中,某些行为(如跌倒动作)发生迅速,相邻目标间的距离,相比于普通动作较远,因此常规距离阈值难以适用;
问题2:某些行为(如跌倒动作)发生过程中,相邻目标间的相似度,相比于普通动作较小,因此常规的相似度阈值难以适用。
发明内容
本发明实施例要解决的技术问题是提供一种目标跟踪方法及装置,通过自适应的调整距离阈值和相似度阈值,可以提高目标跟踪的成功率,提高行为分析的准确性。
为解决上述技术问题,本发明实施例提供的一种目标跟踪方法,包括:
从视频数据的第一图像中,检测得到至少一个待跟踪的第一目标图像;
根据第一图像之前已跟踪到的目标的自相似度,更新所述目标对应的相似度阈值,以及,根据第一图像之前已跟踪到的所述目标的运动信息,更新所述目标对应的距离阈值;
根据每个目标对应的相似度阈值和距离阈值,将所述第一目标图像与匹配数据库中的目标图像进行匹配,识别所述第一目标图像所属的第一目标;其中,所述匹配数据库中保存有已跟踪到的各个目标的目标图像。
可选的,所述目标对应的相似度阈值,与所述自相似度正相关;所述目标对应的距离阈值,与所述目标的运动信息正相关。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于株式会社日立制作所,未经株式会社日立制作所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911148440.0/2.html,转载请声明来源钻瓜专利网。