[发明专利]面向空基监视场景的目标跟踪方法与装置有效
| 申请号: | 201810899198.X | 申请日: | 2018-08-08 |
| 公开(公告)号: | CN109272530B | 公开(公告)日: | 2020-07-21 |
| 发明(设计)人: | 曹先彬;甄先通;李岩;蒋小龙;胡宇韬 | 申请(专利权)人: | 北京航空航天大学 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246;G06N3/04 |
| 代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 张子青;刘芳 |
| 地址: | 100191 北京市海淀区学*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 面向 监视 场景 目标 跟踪 方法 装置 | ||
本发明提供一种面向空基监视场景的目标跟踪方法与装置。本发明提供的方法,包括:实时获取目标对象的待跟踪视频,提取第一帧以及第二帧,对第一帧进行剪裁截取得到第一兴趣区域图像,对第二帧进行剪裁截取得到目标模板图像以及第二兴趣区域图像,将目标模板图像以及第一兴趣区域图像输入外观跟踪器网络,得到外观跟踪位置,将第一兴趣区域图像以及第二兴趣区域图像输入运动跟踪器网络,得到运动跟踪位置,最后将外观跟踪位置以及运动跟踪位置输入深度融合网络,得到最终跟踪位置。本发明提供的目标跟踪方法,通过两路跟踪器网络并联的方法,利用目标对象的外观和运动信息进行定位跟踪,再将两次定位信息进行融合,从而实现对目标对象的实时跟踪。
技术领域
本发明涉及计算机技术领域,尤其涉及一种面向空基监视场景的目标跟踪方法与装置。
背景技术
目标的检测与跟踪是视觉监视领域的两大核心任务。其中,跟踪旨在实现在视频连续帧中对目标的精确定位以得到目标轨迹,在实际的面向空基监视场景中具有极高的应用价值。
在传统视觉监视方法中,监视数据的采集往往是采用固定安置的平时或低视角摄像头。随着近年来无人机技术的快速发展,基于机载空基摄像头数据的监视变得越发普遍和重要。此类空基监视数据具有视角高、遮挡少、覆盖面积大、部署快速灵活、维护成本低等优势。但是,与此同时,也对基于此类监视视频的目标跟踪方法提出了许多挑战。
但是,基于机载空基摄像头数据的监视数据的高视角容易导致目标尺寸较小,外观信息不充分,并且,空基平台灵活机动的部署导致监视场景中可能出现目标的种类多变且不确定。除此之外,空基平台的运动性使得所采集监视视频含有一定的镜头运动,影响视频中目标运动特征的可靠性。
发明内容
本发明提供一种面向空基监视场景的目标跟踪方法与装置,以解决基于机载空基摄像头数据的监视数据的高视角容易导致目标尺寸较小,外观信息不充分,并且,空基平台灵活机动的部署导致监视场景中可能出现目标的种类多变且不确定,以及所采集监视视频含有一定的镜头运动,影响视频中目标运动特征的可靠性的技术问题。
第一方面,本发明提供一种面向空基监视场景的目标跟踪方法,包括:
实时获取目标对象的待跟踪视频,并对所述待跟踪视频进行解帧,以提取第一帧以及第二帧,其中,所述第一帧为当前时刻对应的图像帧,所述第二帧为所述第一帧的前一帧;
对所述第一帧进行剪裁截取得到第一兴趣区域图像,并对所述第二帧进行剪裁截取得到目标模板图像以及第二兴趣区域图像;
将所述目标模板图像以及所述第一兴趣区域图像输入预设的外观跟踪器网络,得到外观跟踪位置,并将所述第一兴趣区域图像以及所述第二兴趣区域图像输入预设的运动跟踪器网络,得到运动跟踪位置;
将所述外观跟踪位置以及所述运动跟踪位置输入深度融合网络,得到融合后的最终跟踪位置。
在一种可能的设计中,在所述将所述外观跟踪位置以及所述运动跟踪位置深度融合网络,得到融合后的最终跟踪位置之后,还包括:
根据所述最终跟踪位置在所述第一帧中显示输出所述最终跟踪结果。
在一种可能的设计中,所述最终跟踪结果为显示在所述第一帧中的第一矩形限位框,所述第一矩形限位框用于表征所述目标对象的当前位置。
在一种可能的设计中,所述对所述第一帧进行剪裁截取得到第一兴趣区域图像,包括:
根据所述第一帧中的第一矩形限位框的中心坐标以及第三矩形限位框对所述第一帧进行剪裁截取得到所述第一兴趣区域图像,其中,所述第一矩形限位框与所述第三矩形限位框的中心重合,所述第三矩形限位框的长宽数据分别为所述第一矩形限位框的长宽数据的N倍,N为大于1的自然数。
在一种可能的设计中,所述对所述第二帧进行剪裁截取得到目标模板图像以及第二兴趣区域图像,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810899198.X/2.html,转载请声明来源钻瓜专利网。
- 上一篇:视频分析方法
- 下一篇:基于双目视觉的模型位姿计算方法





