[发明专利]一种基于缓存的密集目标追踪方法、设备及存储介质在审
申请号: | 202211554018.7 | 申请日: | 2022-12-06 |
公开(公告)号: | CN115861376A | 公开(公告)日: | 2023-03-28 |
发明(设计)人: | 陈光;乔梁;曾学文;何赵亮;黄晓明;马成城 | 申请(专利权)人: | 国能九江发电有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246 |
代理公司: | 南京常青藤知识产权代理有限公司 32286 | 代理人: | 徐婧 |
地址: | 332000 *** | 国省代码: | 江西;36 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 缓存 密集 目标 追踪 方法 设备 存储 介质 | ||
1.一种基于缓存的密集目标追踪方法,其特征在于,包括如下步骤:
S1.对实时视频流解码得到图像帧数据;
S2.基于步骤S1,将连续的图像帧数据输入跨镜头目标跟踪算法,得出不同物体的跨境头轨迹并缓存;
S3.基于步骤S2,将视频缓存流中不同物体从t-1帧到t-T帧之间的目标区域和第t帧的图像数据同时作为输入并输入至基于缓存的目标跟踪算法中,得出第t帧当前目标追踪框结果,目标追踪框结果中包含有新增的追踪目标。
2.根据权利要求1所述的一种基于缓存的密集目标追踪方法,其特征在于,步骤S3的具体方法为:
S31.将第t帧的图像数据It输入全思编码器,得到编码特征,所述编码特征中包含编码特征键值对(key,val);
S32.基于步骤S31,将编码特征输入全思解码器,生成候选嵌入向量;
S33.将视频缓存流中不同物体从t-1帧到t-T帧之间的目标区域数据经过缓存聚合后生成追踪嵌入向量;
S34.将步骤S32中的候选嵌入向量与步骤S33中的追踪嵌入向量进行叠加合并后与步骤S31中的编码特征键值对(key,val)一同输入至缓存求解器中,输出最终的追踪目标序列。
3.根据权利要求2所述的一种基于缓存的密集目标追踪方法,其特征在于:还包括将步骤S34中输出的追踪目标序列依次经过缓存编码和缓存解码后更新缓存至视频缓存流中。
4.根据权利要求2所述的一种基于缓存的密集目标追踪方法,其特征在于:步骤S34中输出的追踪目标序列包括背景、新增的追踪目标、需要抑制的非追踪目标和确认追踪的目标四个类别。
5.根据权利要求2所述的一种基于缓存的密集目标追踪方法,其特征在于,步骤S33中缓存聚合的具体方法为:
S331.不同物体中的任一物体在t-1-T到t-1时间段的缓存可分为全量的短注意力特征键值对和长注意力特征键值对;
S332.基于步骤S331,将短注意力特征键值对和t-1-T时间段的缓存标记一同输入至交叉短注意力模块,输出聚合后的短期标记Q_short;将长注意力特征键值对和动态内容聚合标记一同输入至交叉长注意力模块,输出聚合后的长期标记Q_long;
S333.基于步骤S332,将聚合后的短期标记Q_short和聚合后的长期标记Q_long进行叠加连接后输出最终的标记Q、键key和值val;
S334,基于步骤S333,将标记Q、键key和值val输入自注意力模块后输出目标的时间嵌入向量和追踪嵌入向量。
6.根据权利要求5所述的一种基于缓存的密集目标追踪方法,其特征在于:将步骤S334中输出的时间嵌入向量作为T+1时刻的缓存,更新T+1时刻的缓存为新的动态内存聚合标记。
7.根据权利要求2所述的一种基于缓存的密集目标追踪方法,其特征在于:将步骤S33中追踪嵌入向量输入关联求解器中,输出追踪目标的候选框信息、客观性得分和特异性得分,通过客观性得分和特异性得分可获得确定度得分,通过确定度得分确定目标类别。
8.根据权利要求7所述的一种基于缓存的密集目标追踪方法,其特征在于:通过确定度得分确定目标类别的方法为:
确认追踪的目标:客观性得分=1,特异性得分=1,确定度得分=1;
需要抑制的非追踪目标:客观性得分=1,特异性得分=0,确定度得分=0;
新增的追踪目标:客观性得分=1,特异性得分=1,确定度得分=1,且为单个的不是连续帧序列,中间夹杂背景或需要抑制的非追踪目标;
背景:客观性得分=0,特异性得分=1,确定度得分=0。
9.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可用在处理器上运行的控制程序,所述控制程序被所述处理器执行时实现如权利要求1-8中任一项所述的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-8任一项所述的步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于国能九江发电有限公司,未经国能九江发电有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211554018.7/1.html,转载请声明来源钻瓜专利网。