[发明专利]基于像素空间分辨率的视频追踪方法及系统有效
申请号: | 202210052405.4 | 申请日: | 2022-01-18 |
公开(公告)号: | CN114066945B | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 王一梅;钱程扬;丁倩;杨亚宁;蒋如乔 | 申请(专利权)人: | 苏州工业园区测绘地理信息有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;H04N7/18 |
代理公司: | 苏州市中南伟业知识产权代理事务所(普通合伙) 32257 | 代理人: | 王广浩 |
地址: | 215000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 像素 空间 分辨率 视频 追踪 方法 系统 | ||
本发明涉及视频追踪技术领域,公开了一种基于像素空间分辨率的视频追踪方法及系统,本发明的基于像素空间分辨率的视频追踪方法及系统通过计算监控的空间可视范围,对监控画面划分网格并计算空间分辨率,结合预测区域确定预测监控,并通过空间分辨率阈值筛选目标监控,保证目标监控拍摄的预测区域画面可辨别追踪目标,排除无效监控,可以大幅减少计算量,提高视频追踪效率,为城市监测、突发事件预警及处理等工作提供有力支撑。
技术领域
本发明涉及视频追踪技术领域,特别涉及一种基于像素空间分辨率的视频追踪方法及系统。
背景技术
随着城市的发展,城市内布设的监控越来越密集,构建的视频网络也越来越完善,这些监控视频为城市管理提供了重要的信息资源。利用城市监控,通过对监控画面的计算与分析,实现对人员、车辆等要素的追踪已成为智慧城市治理的重要技术手段,如何高效准确地进行视频追踪变得愈发重要。
目前,基于计算机视觉和深度学习等相关技术,利用计算机可实现对监控视频中的对象进行目标检测、识别和追踪。在视频追踪过程中,由于追踪目标的空间位置会发生动态变化,需要实时调取相关摄像头。现有研究基于视频AI技术,结合路网与监控的关联关系,通过定位对象位置,运用缓冲区分析或网络分析,确定关联摄像头。
如果仅依靠视频AI识别技术,往往需要对大量的视频进行特征匹配计算,该方式要求强大的算力支撑,需要消耗大量的计算资源,可能检索出大量相同特征的目标,导致追踪效果极其不稳定,视频切换效果不佳。而结合路网与监控的关联关系,极大地减少了计算量,但由于其根据空间关系进行判断,并没有考虑监控的可视范围,会存在摄像头仅仅是空间临近,而没有覆盖需要的区域的情况。因此,如何根据监控的可视范围有效获取监控实现视频追踪是当前亟需解决的问题。
发明内容
本发明要解决的技术问题是提供一种计算量少、追踪效率高的基于像素空间分辨率的视频追踪方法。
为了解决上述问题,本发明提供了一种基于像素空间分辨率的视频追踪方法,所述基于像素空间分辨率的视频追踪方法包括:
根据目标区域内各个监控的视频图像计算各个监控的空间可视范围;
对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算各个网格的空间分辨率;
根据追踪目标出现的初始位置预测追踪目标的轨迹,确定追踪目标可能出现的范围,作为预测区域;
将各个监控的空间可视范围与预测区域进行空间相交分析,确定可以拍摄到预测区域的监控,作为预测监控,并得到各个预测监控的空间可视范围与预测区域的相交区域;
根据追踪目标的大小和可分辨追踪目标的最小像素数量确定空间分辨率阈值;
从预测监控中筛选出对应相交区域内所有网格的空间分辨率均小于空间分辨率阈值的监控,作为目标监控;
利用深度学习算法对目标监控的视频流进行特征提取,当识别到追踪目标时,以追踪目标所在位置作为追踪目标的新的初始位置,并继续预测追踪目标的轨迹。
作为本发明的进一步改进,所述根据目标区域内各个监控的视频图像计算各个监控的空间可视范围,包括:
获取目标区域内各个监控的视频图像,在视频图像和地图中选取同名控制点,记录同名控制点的图像坐标和地理坐标;
基于单应矩阵法,根据已经采集的同名控制点求取单应矩阵,建立视频图像点与地理空间点的映射关系;
基于视频图像点和地理空间点的映射关系,获取视频图像四个角点在地图上对应的坐标,以确定监控的空间可视范围。
作为本发明的进一步改进,所述对目标区域内各个监控的视频画面进行网格划分,并结合各个监控的空间可视范围计算网格的空间分辨率,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州工业园区测绘地理信息有限公司,未经苏州工业园区测绘地理信息有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210052405.4/2.html,转载请声明来源钻瓜专利网。