[发明专利]基于深浅模型集成的视频中任意四边形平面目标跟踪方法及其系统在审
| 申请号: | 202111583077.2 | 申请日: | 2021-12-22 |
| 公开(公告)号: | CN114332160A | 公开(公告)日: | 2022-04-12 |
| 发明(设计)人: | 吕刚;梅益;年福东;徐玉珊;周铜;赵浩 | 申请(专利权)人: | 中国科学院合肥物质科学研究院;合肥学院 |
| 主分类号: | G06T7/246 | 分类号: | G06T7/246 |
| 代理公司: | 合肥市上嘉专利代理事务所(普通合伙) 34125 | 代理人: | 李璐 |
| 地址: | 230031 安徽*** | 国省代码: | 安徽;34 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深浅 模型 集成 视频 任意 四边形 平面 目标 跟踪 方法 及其 系统 | ||
1.一种基于深浅模型集成的视频中任意四边形平面目标跟踪方法,其特征在于,
首先将两种浅层目标跟踪方法和一个深层通用目标跟踪器集成到一个统一的平面目标跟踪框架中,所述浅层目标跟踪方法包括一个平面目标跟踪器和一个通用目标跟踪器;
最后利用基于网格运动统计的镜头边界检测方法对融合后的跟踪结果进行精化。
2.根据权利要求1所述的基于深浅模型集成的视频中任意四边形平面目标跟踪方法,其特征在于,包括以下步骤:;
假设视频某帧中任意平面四边形目标R在坐标系t中的四角坐标为坐标系t+1中R的四角坐标即
S1:利用平面目标跟踪器Gracker对R进行跟踪,结果表示为其中i∈[1,4];
S2:以R的每个角为中心,建立一个长度为r的矩形,利用fDSST对这四个小矩形区域进行跟踪,同理,在框架t+1中被跟踪矩形的中心也是被跟踪平面物体的角,记为其中i∈[1,4];
S3:利用UDT追踪所述建立矩形的边界框,使用框架t和t+1的边界框计算单应矩阵Pu,UDT跟踪结果为
S4:计算所有不同跟踪结果对之间的欧氏距离:dGF、dFU、dGU:
若dGFT1且dFUT1且dGUT1,T1是预定义的阈值,则UDT跟踪结果被视为集成结果;否则,比较dGF、dFU、dGU之间的大小,选择最小的值,并用构成该值的两个算法结果的平均值作为最后的结果;
S5:若t+1帧有镜头变化,则集合跟踪结果将被替换为其中是利用SIFT匹配跟踪方法对任意四边形平面目标跟踪的结果。
3.根据权利要求2所述的基于深浅模型集成的视频中任意四边形平面目标跟踪方法,其特征在于,检测t+1帧是否有镜头变化的方法为:
给定帧t-1,t,t+1,使用GMS算法计算[t-1,t]和[t,t+1]的匹配关键点,其匹配数记为Nt-1,t和Nt,t+1;设置预定义阈值T2,如果|Nt-1,t-Nt,t+1|>T2,表示帧t+1有镜头改变。
4.根据权利要求2所述的基于深浅模型集成的视频中任意四边形平面目标跟踪方法,其特征在于,SIFT匹配跟踪方法的步骤包括:
首先分别检测帧t和帧t+1的SIFT关键点;然后利用RANSAC算法根据两帧之间匹配的SIFT对计算单应矩阵;最后,跟踪结果可计算为:
5.一种基于深浅模型集成的视频中任意四边形平面目标跟踪系统,其特征在于,包括:
浅层目标跟踪模块,用于利用浅层目标跟踪器对视频中任意四边形进行目标跟踪;
深层通用目标跟踪模块,用于利用深层通用目标跟踪器对视频中任意四边形进行目标跟踪;
跟踪结果集成融合模块,用于将所述浅层目标跟踪模块和深层通用目标跟踪模块得到的跟踪结果进行融合,集成到一个统一的平面目标跟踪框架中;
集成结果细化模块,用于利用基于网格运动统计的镜头边界检测方法对融合后的跟踪结果进行细化。
6.根据权利要求5所述的基于深浅模型集成的视频中任意四边形平面目标跟踪系统,其特征在于,所述浅层目标跟踪模块包括一个平面目标跟踪器和一个通用目标跟踪器。
7.根据权利要求5所述的基于深浅模型集成的视频中任意四边形平面目标跟踪系统,其特征在于,所述集成结果细化模块对融合后的跟踪结果进行细化的判断条件是首先检测t+1帧是否有镜头变化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院合肥物质科学研究院;合肥学院,未经中国科学院合肥物质科学研究院;合肥学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111583077.2/1.html,转载请声明来源钻瓜专利网。





