[发明专利]一种基于模板更新和无锚框方式的目标跟踪方法有效
申请号: | 202110178314.0 | 申请日: | 2021-02-09 |
公开(公告)号: | CN112884037B | 公开(公告)日: | 2022-10-21 |
发明(设计)人: | 唐川明;秦鹏;张建林;徐智勇 | 申请(专利权)人: | 中国科学院光电技术研究所 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/73;G06K9/62;G06N3/04;G06N3/08;G06T3/40;G06V10/764;G06V10/80;G06V10/774;G06V10/82 |
代理公司: | 北京科迪生专利代理有限责任公司 11251 | 代理人: | 杨学明 |
地址: | 610209 *** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 模板 新和 无锚框 方式 目标 跟踪 方法 | ||
1.一种基于模板更新和无锚框方式的目标跟踪方法,其特征在于,包括如下步骤:
步骤1:根据图像中的目标位置和大小,分别对目标模板图像和搜索区域图像进行区域裁剪,以裁剪后的目标模板图像和搜索区域图像组成的图像对作为训练数据集;
步骤2:构建基于模板更新的卷积神经网络,所述基于模板更新的卷积神经网络包含3个完全相同的分支卷积网络结构,分别为第一分支、第二分支、第三分支,第一分支为当前模板分支,用于生成已有模板的特征;第二分支为更新模板分支,用于完成模板信息的更新并获取特征图;第三分支为搜索区域分支,用于完成对搜索区域图像进行特征提取;三分支中第一二分支先进行加权融合后再与第三分支进行逐层互相关运算,得到响应得分图;
所述步骤2中构建基于模板更新的卷积神经网络的具体过程如下:
步骤2.1:加载网络的预训练模型和参数配置文件,以模板图像和搜索图像对作为第一、第三分支的输入;
步骤2.2:所述第一分支将模板Ti-1输入第一分支卷积神经网络,通过Conv1-Conv3输出第一层特征图通过Conv1-Conv4输出第二层特征图通过Conv1-Conv5输出第三层特征图i=1表示T0为初始模板,i>1表示Ti-1为后续帧中的当前模板;
步骤2.3:所述第三分支将模板S输入第一分支卷积神经网络,通过Conv1-Conv3输出第一层特征图通过Conv1-Conv4输出第二层特征图通过Conv1-Conv5输出第三层特征图
步骤2.4:将模板特征图与搜索图像特征图进行逐层互相关运算,公式如下:
对三层特征图进行平均值融合,得到最后的响应得分图和模板置信度,用于步骤4中完成训练;
步骤2.5:模板更新采用高置信度的模板进行更新,目标模板的更新控制器的公式如下:
即当置信度Sbest大于0.99,并且两次更新帧之间相差30的时候进行一次模板更新;
步骤2.6:将更新的模板图像Ti按照步骤1.1进行裁剪后,输入第一分支卷积神经网络,得到特征图将更新模板与当前模板进行加权融合,生成新的模板,融合模板公式如下:
其中,λ代表更新模板和当前模板的权重比例,可以根据经验条件,默认设置为0.15,将当前新模板代替初始模板存储在寄存器中,直到下次模板更新完成;
步骤3:构建图像分类和目标位置回归子网络;分类是对图像进行前景背景的二分类,回归采用无锚框方式直接预测目标的中心点和矩形框的上下左右四条边框位置;
步骤4:基于公开训练数据集,训练所述步骤3和步骤4组成的基于模板更新和无锚框方式的跟踪网络,获得训练好参数的基于模板更新和无锚框方式的跟踪网络;
所述步骤4中所述训练基于模板更新和无锚框方式的目标跟踪方法的具体过程如下:
步骤4.1:将步骤2.5中所述响应得分图送入分类与回归子网络,分别对目标进行前景和背景的二分类和目标预测框的回归;
步骤4.2:所述分类分支采用常规交叉熵损失函数;所述回归分支使用了损失函数DIOU完成预测框回归,具体步骤如下:
步骤4.2.1:采用无锚框的预测框回归方式下,DIOU的实现公式如下:
其中,p是预测框中心点坐标,pgt为目标真实框中心点坐标,ρ2(p,pgt)为所述两点的欧氏距离,c为同时包含预测框和目标真实框的最小闭包区域的对角线距离,设(px,py)到预测框左上右下的距离分别为gl,gt,gr,gb,(px,py)到目标真实框左,上,右,下四条边框的距离分别为dl,dt,dr,db;
步骤4.2.2:预测框与目标真实框之间的交集框的宽高:
wi=min(gl,dl)+min(gr,dr),
hi=min(gb,db)+min(gt,dt),
预测框与目标真实框之间并集的宽高:
wu=max(gl,dl)+max(gr,dr),
hu=max(gb,db)+max(gt,dt),
中心点p与pgt的距离的宽高为:
步骤4.2.3:则预测框中心点和目标真实框中心点的欧氏距离为:
c2=hu2+wu2
ρ2(p,pgt)=wc2+hc2
步骤4.3:联立所述公式,完成了DIOU损失在无锚框下的实现,无锚点回归和分类网络联合训练,优化了如下的多任务损失函数:
L=α1Lreg+α2Lcls
其中,Lcls代表分类网络采用交叉熵损失函数,训练过程中,α1,α2是可变参数,默认设置α1=1,α2=2;
步骤4.4:采用上述损失函数对无锚框跟踪网络进行训练,使用多个数据集进行多轮联合训练;
步骤5:使用训练好参数的基于模板更新和无锚框方式的跟踪网络确定视频序列中每帧图像中目标的位置和大小,完成目标跟踪。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院光电技术研究所,未经中国科学院光电技术研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110178314.0/1.html,转载请声明来源钻瓜专利网。