[发明专利]一种基于互相关匹配增强孪生网络的目标跟踪方法及系统在审
申请号: | 202211344364.2 | 申请日: | 2022-10-31 |
公开(公告)号: | CN115546252A | 公开(公告)日: | 2022-12-30 |
发明(设计)人: | 胡昭华;刘浩男;林潇;王莹 | 申请(专利权)人: | 南京信息工程大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06V20/40;G06V10/40;G06V10/764;G06V10/774;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 陈萍萍 |
地址: | 224002 江苏省盐*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 互相 匹配 增强 孪生 网络 目标 跟踪 方法 系统 | ||
1.一种基于互相关匹配增强孪生网络的目标跟踪方法,其特征在于,所述方法包括:
对所采集的待跟踪目标的视频序列进行裁剪,获得所有帧图像的模板图像和搜索图像;
将所述模板图像和搜索图像输入至构建并训练好的互相关匹配增强孪生网络中,通过所述互相关匹配增强孪生网络提取模板图像和搜索图像的模板特征和搜索特征;对模板特征和搜索特征进行互相关匹配得到互相关特征;对模板图像进行边界框信息编码得到边界框编码特征;对互相关特征与边界框编码特征的融合特征进行分类计算和回归计算,得到相应的分类得分图和回归预测图;
根据分类得分图中响应值最大的位置,结合回归预测图的偏移量,获得目标在视频序列帧上的最终位置。
2.根据权利要求1所述的基于互相关匹配增强孪生网络的目标跟踪方法,其特征在于,所述互相关匹配增强孪生网络的构建和训练过程包括:
获取目标视频序列帧数据集,根据图像的目标位置和尺寸,对数据集中的每一帧图像进行裁剪,获得所有帧图像的模板图像和搜索图像,将其作为训练样本集;
构建互相关匹配增强孪生网络,所述互相关匹配增强孪生网络包括特征提取网络、互相关匹配网络、分类回归网络及边界框编码模块;所述特征提取网络为改进的ResNet50深度残差网络,所述ResNet50深度残差网络的改进包括:去除原ResNet50深度残差网络的第五层卷积层,将第三层和第四层的卷积步长均设置为1,第三层和第四层的扩张卷积的大小均设置为4;
基于所述训练样本集对所构建的互相关匹配增强孪生网络进行训练,获得训练好的互相关匹配增强孪生网络。
3.根据权利要求2所述的基于互相关匹配增强孪生网络的目标跟踪方法,其特征在于,所述对数据集中的每一帧图像进行裁剪的方法包括:
将目标视频序列的首帧图像以目标为中心裁剪为127*127*3大小的模板图像,从第二帧开始,将目标视频序列的后续帧的图像以目标为中心裁剪为255*255*3大小。
4.根据权利要求2所述的基于互相关匹配增强孪生网络的目标跟踪方法,其特征在于,所述互相关匹配网络包括横向尺度提取模块、纵向尺度提取模块和级联双重互相模块;
所述级联双重互相关模块用于将模板特征和搜索特征进行像素匹配互相关操作后,与模板特征进行深度可分离互相关操作,得到级联双重互相关特征,其计算公式为:
fpm=PM(fz,fx)
FDw=DW(fpm,fz) (1)
式中,fpm表示模板特征fz和搜索特征fx的像素匹配互相关特征,PM表示像素匹配互相关;FDw表示级联双重互相关特征,DW表示深度可分离互相关;
所述横向尺度提取模块用于提取模板特征与搜索特征的横向尺度分支特征,其计算公式为:
Hk=HD3:1(Nk)
FH=DW(fz*Hk,fx*Hk) (2)
式中:Nk表示常规的N*N卷积核,Hk表示卷积核Nk经HD3:1横向3:1的卷积扩张为7*3大小的横向卷积核;FH表示横向尺度分支特征;*表示卷积操作;
所述纵向尺度提取模块用于提取模板特征与搜索特征的纵向尺度分支特征,其计算公式为:
Vk=VD1:3(Nk)
FV=DW(fz*Vk,fx*Vk) (3)
式中,Vk表示卷积核Nk经VD1:3纵向进行1:3的卷积扩张为3*7大小的纵向卷积核;FV表示纵向尺度分支特征。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京信息工程大学,未经南京信息工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211344364.2/1.html,转载请声明来源钻瓜专利网。