[发明专利]一种基于多模态融合的目标检索跟踪方法及系统有效

专利信息
申请号: 202310237584.3 申请日: 2023-03-14
公开(公告)号: CN116091551B 公开(公告)日: 2023-06-20
发明(设计)人: 李芳芳;夏伟代;张健 申请(专利权)人: 中南大学
主分类号: G06T7/246 分类号: G06T7/246;G06F40/279;G06T7/277;G06T7/73
代理公司: 长沙七源专利代理事务所(普通合伙) 43214 代理人: 周晓艳;李杰强
地址: 410083 湖南*** 国省代码: 湖南;43
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 多模态 融合 目标 检索 跟踪 方法 系统
【权利要求书】:

1.一种基于多模态融合的目标检索跟踪方法,其特征在于,包括:

对文本数据和图像数据进行特征提取,获得文本特征和图像特征;

根据文本特征和图像特征进行回归运算,获得目标预测坐标;

当出现跟踪漂移后重新感知目标位置,具体是:先划定一个搜索区域,并以目标图像作为模板区域,获得模板特征和搜索特征;以模板特征作为卷积核对搜索特征进行相关性滤波运算得到相关性特征,将相关性特征输入卷积神经网络得到相关性特征图;将文本特征和相关性特征图进行乘积运算获得重新感知的目标预测坐标;

其中,使用预训练图像提取骨干网络对图像数据进行特征提取,具体是:

以视频t-1帧的目标预测坐标为中心,进行高斯分布采样j个候选框,对候选区域图像进行特征提取,得到视频第t帧的图像特征;

其中,根据文本特征和图像特征进行回归运算获得目标预测坐标,具体是:

对图像特征进行评分,获得每个候选区域的目标置信值;

将图像特征与文本特征进行内积运算得到相似度量,相似度量依次与每个候选区域的目标置信值进行乘积运算,得到最终目标置信值;

选取最终正置信值最高的N个候选区域,进行平均值运算作为目标预测坐标;其中N为大于等于2的自然数;

其中,将搜索区域和模板区域分别输入预训练图像提取骨干网络进行特征提取,得到模板特征和搜索特征。

2.根据权利要求1所述的基于多模态融合的目标检索跟踪方法,其特征在于,使用预训练语言文本编码网络对文本数据进行特征提取,获得文本特征。

3.根据权利要求1所述的基于多模态融合的目标检索跟踪方法,其特征在于,将图像特征输入卷积神经网络或全连接神经层,获得每个候选区域的目标置信值。

4.根据权利要求1所述的基于多模态融合的目标检索跟踪方法,其特征在于,构建回归损失函数,利用回归损失函数训练对目标置信值的评估能力;

回归损失函数为:

其中,d是回归任务的标签,为预测分类值。

5.根据权利要求4所述的基于多模态融合的目标检索跟踪方法,其特征在于,构建对象感知任务损失函数,通过对象感知任务损失函数训练对目标位置的感知能力;

对象感知任务损失函数为:

其中,w和h分别表示搜索区域的宽和高,Ybox是对象感知任务的标签,为目标中心预测图,x、y为重新感知的目标预测坐标。

6.根据权利要求5所述的基于多模态融合的目标检索跟踪方法,其特征在于,根据对象感知任务损失函数和回归损失函数计算跟踪方法的整体损失:

Loss=λ×Losscls+(1-λ)×Losscen

其中,λ为回归损失在整体损失的权重。

7.一种基于多模态融合的目标检索跟踪系统,其特征在于,该系统采用如权利要求1-6任意一项所述的基于多模态融合的目标检索跟踪方法,该系统包括多模态特征提取模块、目标回归模块和对象感知模块,所述多模态特征提取模块用于特征提取,目标回归模块用于回归运算,所述对象感知模块用于跟踪漂移后重新感知目标位置。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202310237584.3/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top