[发明专利]跨摄像头场景下指定行人在线跟踪方法有效
申请号: | 201810076414.0 | 申请日: | 2018-01-26 |
公开(公告)号: | CN108198200B | 公开(公告)日: | 2022-03-08 |
发明(设计)人: | 余春艳;钟诗俊 | 申请(专利权)人: | 福州大学 |
主分类号: | G06T7/20 | 分类号: | G06T7/20 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350108 福建省福*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 摄像头 场景 指定 行人 在线 跟踪 方法 | ||
本发明涉及一种跨摄像头场景下指定行人在线跟踪方法,通过在任一摄像头视野区域内标定出感兴趣的行人,根据获得的基本信息创建并初始化跟踪器;当指定行人离开当前摄像头视野区域后,将行人状态设置为挂起检测,等待下一步行人数据关联操作;当跟踪视野区域内有新行人进入时,则将挂起状态的行人和新目标行人进行通过关联算法判断是否属于同一个行人;根据基于深度学习的数据关联算法得到两个目标行人的相似值,当相似值大于阈值,则更新对应的跟踪器,进而得到感兴趣目标行人在整个摄像头网络中的完整运动轨迹。本发明提出的一种跨摄像头场景下指定行人在线跟踪方法,提高了多摄像头场景下非重叠视野区域目标跟踪的实用性和准确度。
技术领域
本发明涉及智能安防领域,特别是一种跨摄像头场景下指定行人在线跟踪方法。
背景技术
随着经济的不断发展,人们对安全的需求与日俱增。因此,安防领域中的智能监控视频的应用范围在不断的扩大,类似于行人跟踪、检索等相关视频智能处理技术开始成为当前研究的热点。其研究范畴从传统技术只针对在单摄像头应用场景开始延展到多摄像头应用场景,研究对象从以前的只对单个行人发展到需要同时对多个行人进行处理。目前,单摄像头下的行人跟踪技术已经相对成熟,但多摄像头,尤其是非重叠视野区域情形下由于盲区的存在使得目标的时空信息变得不再可靠,从而给不同时刻不同空间下不同摄像头中同一目标的识别跟踪和检索造成了很大的困扰。所以,跨摄像头行人跟踪所需要解决的技术难点远比单摄像头场景下得复杂。因此,与之相关的一系列研究正在逐渐兴起。
跨摄像头行人跟踪主要是以行人为研究对象,关注非重叠视野区域的多摄像头多目标跟踪问题。这一问题,目前常见的解决机制是分为两个步骤:首先,使用检测和跟踪算法获得目标在单摄像头下得运行轨迹。其次,使用关联算法将摄像头间独立的行人运行轨迹进行关联整合,从而获得每个目标完整的运动轨迹。上述机制的局限在于只能处理离线的数据,本质上适用于检索场景,无法支持在线跟踪。究其原因在于,目标行人离开当前摄像头视域后,由于盲区的存在目标在进入下一摄像头视域时,时空信息均缺失,增加了将目标行人从上一个摄像头正确移交给下一个摄像头的难度。这种机制还产生了副效应:使得跨摄像头行人跟踪的结果严重依赖单摄像头下得行人跟踪效果。
实现行人跨摄像头在线跟踪的关键在于将不同视域内的同一目标行人正确关联。针对目前大部分跨摄像头行人跟踪算法中对于行人特征学习能力有限,并不能学习到较为鲁棒的行人特征。因此,最终影响到了后面的行人相似性度量的精度,最终造成了并不理想的数据关联结果。所以很难适应于跨摄像头行人跟踪的复杂环境。
尽管现有的跨摄像头指定行人跟踪相关的研究可以比较有效地解决一些对于离线数据的行人跟踪,但是并不能满足对于需要即时在线跟踪的要求,并且也不能在未知行人进出区域的时候进行有效的跟踪。
发明内容
本发明的目的在于提供一种跨摄像头场景下指定行人在线跟踪方法,以克服现有技术中存在的缺陷。
为实现上述目的,本发明的技术方案是:一种跨摄像头场景下指定行人在线跟踪方法,,按照如下步骤实现:
步骤S1:记N个视野区域非重叠的摄像头为C1,C2,...,CN;在第k帧,记摄像机Ci捕捉到m个行人,为其中,表示捕捉到的目标行人的信息;在第k帧标定为感兴趣目标行人,创建并初始化一跟踪器,保存该目标行人的信息作为后期数据关联的模板;
步骤S2:将单摄像头视野区域划分为外围区域和内围区域;当目标行人从当前单摄像头视野外围区域离开时,将该目标行人设置为挂起状态,并等待进行下一步的数据关联操作;
步骤S3:通过采用深度卷积孪生网络在线提取新进入的目标行人的特征,对新进入的行人与等待关联的目标行人进行相似性度量;将相似性值作为权值,建立带权值匹配图;对带权值匹配图求解最大权值匹配的解,获取新进入的行人与等待关联的目标行人间的数据关联的解,进而实现对目标行人在线追踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810076414.0/2.html,转载请声明来源钻瓜专利网。