[发明专利]一种基于孪生网络进行特征融合的目标跟踪方法有效

专利信息
申请号: 201810606690.3 申请日: 2018-06-13
公开(公告)号: CN108846358B 公开(公告)日: 2021-10-26
发明(设计)人: 郭东岩;赵玮瑄;崔滢;王振华;陈胜勇 申请(专利权)人: 浙江工业大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/46;G06K9/62;G06N3/08;G06N3/04
代理公司: 杭州斯可睿专利事务所有限公司 33241 代理人: 王利强
地址: 310014 浙江省杭州*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要: 一种基于孪生网络进行特征融合的目标跟踪方法,包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;孪生网络模型的训练过程如下:步骤1.1:模型训练数据集的选取;步骤1.2:训练数据集的预处理;步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练;步骤1.4:模型获取;模型在目标跟踪场景中的应用过程如下:步骤2.1:数据输入;步骤2.2:模板更新;步骤2.3:目标位置评估;步骤2.4:利用算法得到的评估位置,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1‑2.4的过程,直到图像序列中所有图像都处理完为止。本发明提升鲁棒性,提升跟踪效果。
搜索关键词: 一种 基于 孪生 网络 进行 特征 融合 目标 跟踪 方法
【主权项】:
1.一种基于孪生网络进行特征融合的目标跟踪方法,其特征在于,所述方法包括孪生网络模型的训练过程和模型在目标跟踪场景中的应用;所述孪生网络模型的训练过程如下:步骤1.1:模型训练数据集的选取:根据目标跟踪的应用需求,我们选取包含目标的完整视频序列作为训练集;步骤1.2:训练数据集的预处理:因为在目标跟踪过程中,输入模型的是一张只包含目标的图像块和一张包含目标以及目标周围背景的图像块,所以在模型训练前,需要对训练集进行预处理,生成符合网络输入要求的训练集;步骤1.3:模型的训练:输入步骤1.2预处理的训练集进行训练,步骤如下:,步骤1.3.1:为了提升训练模型的鲁棒性,采用随机读取的方式,每次读取多对图像块输入网络进行训练;步骤1.3.2:利用孪生网络结构对一组图像块(x′,z′)分别提取CNN和HOG特征,将这些特征记为x′HOG,x′CNN,z′HOG,z′CNN;步骤1.3.3:利用步骤1.3.2所提取到的特征x′HOG和x′CNN,生成两个用于匹配的特征模板,分别记为TempCNN和TempHOG,利用公式(1)求解模板,F(T)=‖Tx‑y‖2+λ‖T‖2   (1)式中T表示模板Temp,y表示期望响应,表示相关滤波操作,为了防止过拟合,在式中加入了正则项λ‖T‖2;求解得到步骤1.3.4:根据TempCNN和TempHOG以及z′HOG和z′CNN,分别生成两个特征响应图,记为RespCNN和ResPHOG,利用如下公式求得特征响应图,RespCNN=TempCNNz′CNN   (2)RespHOG=TempHOGz′HOG   (3)步骤1.3.5:利用网络训练的相关权重融合响应图,将融合后的响应图记为Respmerge,融合操作用式(4)表示,Respmerge=M(RespCNN,RespHOG)   (4)式中M为融合函数,其中的融合权重均由网络训练得到;步骤1.3.6:在网络的最后设置逻辑斯谛回归层,优化最终的训练结果,根据坐标点的数据是否位于ground truth区域设置空间上的标签,1表示位于区域内,‑1表示不在区域内;训练模型使得损失函数取得最小值,记损失函数为l,argmin∑il(M(RespCNN,RespHOG),Li)   (6)步骤1.4:模型获取:设置迭代次数,在模型迭代结束之后,取出最终迭代生成的模型作为目标跟踪时使用的跟踪模型;模型在目标跟踪场景中的应用过程如下:步骤2.1:数据输入:在目标跟踪过程中,模型的使用采用的是前向反馈的模式;跟踪开始,需要指定第一帧中跟踪目标的位置信息,在后续跟踪过程中,则以上一帧中通过算法评估出的目标区域为中心,取4倍的大小作为当前帧的目标搜索区域,进行跟踪;步骤2.2:模板更新:每输入一组图像对进行跟踪,都会生成新的模板,采取将历史模板和新模板结合的方法,模板融合的方法如公式(7)和(8)所示,TempCNN,new=(1‑ηc)TempCNN,old+ηcTempCNN,curr   (7)TempHOG,new=(1‑ηh)TempHOG,old+ηnTempHOG,curr   (8)式中ηc和ηh分别表示CNN和HOG特征模板的学习率,TempCNN,old和TempHOG,old表示旧的模板,TempCNN,curr和TempHOG,curr表示以当前帧作为输入生成的新模板,将新的模板代入式(2)和(3)中,得到式(9)和(10):RespCNN=TempCNN,newz′CNN   (9)RespHOG=TempHOG,newz′HOG   (10)步骤2.3:目标位置评估:根据响应图的值来确定目标的中心点的位置信息;步骤2.4:利用算法得到的评估位置,按照第一部分中步骤2.2所述的图像对提取方法,提取后续的图像对,将提取到的图像对作为模型的输入,输入到模型中,重复上述的步骤2.1‑2.4的过程,直到图像序列中所有图像都处理完为止。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810606690.3/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top