[发明专利]基于双模板特征融合的孪生网络目标跟踪方法在审
| 申请号: | 202210258274.5 | 申请日: | 2022-03-16 |
| 公开(公告)号: | CN114612519A | 公开(公告)日: | 2022-06-10 |
| 发明(设计)人: | 刘龙;魏珍 | 申请(专利权)人: | 西安理工大学 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/00;G06N3/04;G06N3/08 |
| 代理公司: | 西安弘理专利事务所 61214 | 代理人: | 王奇 |
| 地址: | 710048 陕*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 双模 特征 融合 孪生 网络 目标 跟踪 方法 | ||
1.基于双模板特征融合的孪生网络目标跟踪方法,其特征在于,具体步骤如下:
步骤1,将训练好的AlexNet网络和改进的AlexNet网络分别作为孪生网络的特征提取网络特征提取网络
步骤2,获取跟踪视频,对第一帧手动选取目标区域输入到特征提取网络得到深度特征对第二帧手动选取目标区域输入到特征提取网络得到深度特征从第三帧起,根据上一帧的目标大小确定当前帧的搜索区域并分别输入至特征提取网络和特征提取网络中,分别得到当前帧搜索区域的浅层特征和深层特征做相似性度量;
步骤3,采用模板深度特征分别对当前帧搜索区域的浅层特征和深层特征做相似性度量,获得的响应图h1(Z1,St)、h2(Z1,St)、h1(Z2,St)和h2(Z2,St);
步骤4,通过对响应图加权融合、判断可靠性得到最终的响应图,最终响应图的最大值点就是目标所在位置。
2.如权利要求1所述的基于双模板特征融合的孪生网络目标跟踪方法,其特征在于,所述步骤1中AlexNet网络由依次连接的5个卷积层组成,前两个卷积层后面分别连接一个最大池化层,其中前4个卷积层后面都有随机失活层和RELU非线性激活函数。
3.如权利要求1所述的基于双模板特征融合的孪生网络目标跟踪方法,其特征在于,所述步骤1中改进的AlexNet网络包括依次连接的8个卷积层和2个池化层组成,在第两个卷积层和第四个卷积层后面分别连接一个最大池化层,在前7个卷积层后面都有随机失活层和RELU非线性激活函数。
4.如权利要求1所述的基于双模板特征融合的孪生网络目标跟踪方法,其特征在于,所述步骤2具体的为:
步骤2.1,获取跟踪视频,在视频的第一帧手动选取目标所在区域;令(x1,y1)为第一帧中目标的中心点坐标,w1和h1分别为第一帧目标区域的宽和高;以第一帧中目标的中心点为中心,截取边长为sz1的正方形区域,sz1计算公式为:
其中p1=(w1+h1)/4,表示填充量,如果该正方形区域大小超出图像尺寸大小,则超出部分用图像均值填充;
在第二帧上手动选取目标所在区域,令(x2,y2)为第二帧中目标的中心点坐标,w2和h2分别为第二帧目标区域的宽和高,以第二帧中目标的中心点为中心,截取边长为sz2的正方形区域,sz2的计算公式如下:
其中p2=(w2+h2)/4,表示填充量,如果该正方形区域大小超出图像尺寸大小,则超出部分用图像均值填充;
步骤2.2,将边长sz1和sz2的正方形区域缩放到127×127大小,得到第一帧和第二帧的目标区域Z1、Z2;
步骤2.3,将第一帧和第二帧的模板目标区域Z1和Z2输入到特征提取网络中得到尺寸为w×h×C的深度特征和
步骤2.4,从第三帧开始作为后续帧(t>2),利用上一帧的跟踪目标坐标位置(xt-1,yt-1)和宽高(wt-1,ht-1)截取边长为sx的正方形区域,sx的计算公式如下:
其中pt-1=(wt-1+nt-1)/4,表示填充量;如果该正方形区域大小超出图像尺寸大小,则超出部分用图像均值填充;
步骤2.5,将sx的正方形区域缩放到255×255大小,得到当前帧的搜索区域St,并输入到特征提取网络中得到当前帧搜索区域的浅层特征和深层特征
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安理工大学,未经西安理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210258274.5/1.html,转载请声明来源钻瓜专利网。





