[发明专利]动态双模板更新的单目标跟踪方法及存储介质在审
申请号: | 202210095816.1 | 申请日: | 2022-01-26 |
公开(公告)号: | CN114387459A | 公开(公告)日: | 2022-04-22 |
发明(设计)人: | 符强;梁栩欣;纪元法;孙希延;任风华;贾茜子;梁维彬;付文涛 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06V10/74 | 分类号: | G06V10/74;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 深圳瑞天谨诚知识产权代理有限公司 44340 | 代理人: | 温青玲 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 动态 双模 更新 目标 跟踪 方法 存储 介质 | ||
本发明公开了动态双模板更新的单目标跟踪方法及存储介质,所述方法,包括步骤10、读取视频序列;步骤20、读取视频序列的第一帧图像及其标注数据,进行初始化模板得到模板图像;步骤30、读取下一帧图像,处理为搜索区域图像;步骤40、将所述模板图像和所述搜索区域图像同时送入预设强特征提取网络,分别获得模板特征图和搜索区域特征图;步骤50、对所述模板特征图和搜索区域特征图进行相似度匹配计算,输出相似度得分响应图,得到初步跟踪预测结果。本发明动态双模板更新的单目标跟踪方法,为一种结合强特征提取网络和动态双模板更新策略的目标跟踪方法,当所跟踪的目标所在的视频序列较为复杂时,仍然有较高精确率和鲁棒性跟踪。
技术领域
本发明涉及视觉深度特征提取网络的目标跟踪技术领域,特别是涉及动态双模板更新的单目标跟踪方法及存储介质。
背景技术
实现在复杂视频序列中的鲁棒性和高精确率目标跟踪一直是视觉目标跟踪领域一个极具挑战的难题。近几年,基于孪生网络的目标跟踪算法受到广泛关注与深入研究,成为了单目标跟踪的主流基准框架。基于孪生网络的目标跟踪算法将目标跟踪任务视为相似度匹配问题,通过计算模板分支和搜索分支的相似度得分来预测目标的中心位置和跟踪框。模板图像由视频序列第一帧的目标标注数据裁剪初始化而来,搜索区域图像则由当前帧图像裁剪得到的。模板分支和搜索分支共享一个深度特征提取网络,因此基于孪生网络的视觉目标跟踪算法在跟踪精确率和跟踪速度上都达到了非常优异的性能。
然而,大多数基于孪生网络的目标跟踪算法依赖复杂庞大的卷积神经网络作为特征提取网络,并且依赖多个大型数据集对特征提取网络进行离线训练,在跟踪阶段采用由第一帧初始化而来的固定模板,当所跟踪的目标所在的视频序列较为复杂,该深度特征提取网络对该目标的特征提取效果会比较差,导致最终的跟踪精确率较严重下降。
发明内容
本发明针对现有技术当所跟踪的目标所在的视频序列较为复杂,该深度特征提取网络对目标的特征提取效果较差,导致最终的跟踪精确率下降的技术问题,提出以下技术方案。
本发明采用的一种技术方案是:
动态双模板更新的单目标跟踪方法,包括:
步骤10、读取视频序列;
步骤20、读取视频序列的第一帧图像及其标注数据,进行初始化模板得到模板图像;
步骤30、读取下一帧图像,处理为搜索区域图像;
步骤40、将所述模板图像和所述搜索区域图像同时送入预设强特征提取网络,分别获得模板特征图和搜索区域特征图;
步骤50、对所述模板特征图和搜索区域特征图进行相似度匹配计算,输出相似度得分响应图,得到初步跟踪预测结果。
进一步地,所述步骤20具体包括:
读取视频序列的第一帧图像的标注数据提供的目标中心点坐标、边界框宽度和边界框长度,即获取目标的真实边界框;
将目标中心点坐标映射到第一帧图像中,基于目标中心点坐标对第一帧图像进行裁剪,得到与边界框宽度和边界框长度对应的图像块;
将裁剪得到的图像块重新采样调整为预设尺寸的图形块,将调整后的图形块作为模板图像。
进一步地,所述步骤50之后,所述方法还包括:
步骤60、计算所述响应图的置信度,根据所述置信度确定动态双模板更新策略:
如果置信度符合模板备份条件,则根据所述初步跟踪预测结果裁剪当前帧图像保存为备份模板,进入步骤70;
如果置信度符合双模板启动条件,则将初始模板和备份模板加权融合获得新模板,重复步骤40和步骤50后,直接进入步骤70;
如果是其他情况,直接进入步骤70;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210095816.1/2.html,转载请声明来源钻瓜专利网。