[发明专利]一种可嵌入式实现的目标跟踪方法有效
申请号: | 201810693216.9 | 申请日: | 2018-06-29 |
公开(公告)号: | CN109146920B | 公开(公告)日: | 2021-12-28 |
发明(设计)人: | 赵天云;吕思稼;郭雷;刘雪婷 | 申请(专利权)人: | 西北工业大学 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 西北工业大学专利中心 61204 | 代理人: | 王鲜凯 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种可嵌入式实现的目标跟踪方法,首先对视频的初始帧,利用鼠标框选出待跟踪的目标,然后提取第一帧图象的特征点和特征点描述符加以保存;之后对视频的后续帧主要做三部分工作,检测当前帧的特征点与初始帧的前景和背景特征点进行匹配,匹配时利用拉普拉斯约束当前帧的目标中心的可能位置,排除大量背景特征点,再利用前向‑后向光流跟踪算法跟踪得到当前帧的特征点,对这两部分的特征点加以融合得到初步特征点;然后利用当前帧特征点评估出目标相对于初始帧的旋转角度和尺度变化,并进行投票聚类得出新的目标中心和目标框。可以应用在实时性要求较高和计算资源有限的嵌入式系统中实现目标跟踪。 | ||
搜索关键词: | 一种 嵌入式 实现 目标 跟踪 方法 | ||
【主权项】:
1.一种可嵌入式实现的目标跟踪方法,其特征在于步骤如下:步骤1:在连续的视频序列图像中,以选定待跟踪目标的视频为初始帧,采用ORB方法检测所有前景特征点和背景特征点及其描述符;256维的特征描述符向量:
所述
则每一个特征点都得到了一个256维的特征点描述符记为:
其中:n为256,p(x)代表x处像素点的灰度值;步骤2:采用ORB方法对后续的每一帧视频信息的特征点提取和特征点描述符提取,并且与初始帧的特征点描述符进行全局匹配,结果集合为M,同时对初始帧的前景特征点利用光流法得到下一桢的特征点,结果集合记为T:将这两种特征点进行融合,过程为:1、计算第t‑1帧的目标框的中心C(x,y),以及目标框的宽度w和高度h,同时设x',y',w',h'为第t帧目标框的中心坐标和尺度,则:
δ为相邻帧轨迹变化参数得出第t帧的更为精简的特征点集合,记为:
2、采用海明距离计算步骤1初始帧前景特征点与本步骤计算当前帧特征点之间的距离,采用二次最近邻距离判据,得到结果集合为M:
其中d(*)表示特征点描述符之间的海明距离,θ和γ为阈值,其中θ=0.25,γ=0.8;采用Lucas‑Kanade光流法对第t‑1帧的前景特征点进行其到第t帧的跟踪:
其中,u代表像素点延x轴的速度,v代表像素点延y轴的速度,矩阵A代表n个像素点分别延x轴和y轴的变化,ω为高斯窗口函数,变量为像素点到窗口中心的距离。根据计算出来的光流场可以快速计算出第t帧的特征点位置,结果集合记为T;3、对全局匹配和光流跟踪得到的两部分前景特征点进行不重复融合,融合后的特征点集合为K:
其中,aik为特征点的绝对坐标,mik为特征点对的索引;步骤3、计算尺度和旋转角度:利用步骤2计算的当前帧图象和初始目标模板的前景特征点之间相对位置关系的几何不变性来进行尺度因子s和旋转因子α的计算:α=med(Dα)
s=med(Ds)
步骤4:根据刚性物体目标位置相对不变性,利用当前帧的特征点对当前帧的目标中心进行投票,并且采用层次聚类法得到票数最多的类,确定当前帧目框,过程如下:1、投票函数为hR(a,m)=a‑s·Rrm,其中
其中a当前特征点的坐标;2、Vc为票数最多的类,则当前目标中心为:
设ci为前一帧的目标框的四个顶点,c′i为当前帧目标框的顶点,i=1、2、3、4,则c′i=μ+s·Rci3、将为Vc投票的特征点设为最终的当前帧前景特征点,作为下一帧的先验信息。在后续的视频序列中,作为光流跟踪并可以得到第t+1帧的跟踪特征点:![]()
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学,未经西北工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810693216.9/,转载请声明来源钻瓜专利网。