[发明专利]基于运动估计ME-CNN网络的大场景极小目标跟踪有效
申请号: | 201910718847.6 | 申请日: | 2019-08-05 |
公开(公告)号: | CN110517285B | 公开(公告)日: | 2021-09-10 |
发明(设计)人: | 焦李成;杨晓岩;李阳阳;唐旭;程曦娜;刘旭;杨淑媛;冯志玺;侯彪;张丹 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G06T7/207 | 分类号: | G06T7/207;G06T7/246;G06N3/04 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 程晓霞;王品华 |
地址: | 710071 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出了一种基于运动估计ME‑CNN网络的大场景极小目标跟踪方法,解决了无需配准利用运动参数进行极小目标跟踪的问题,实现步骤为:获取目标运动估计网络ME‑CNN的初始训练集D;构建估计目标运动的网络ME‑CNN;用目标运动参数计算网络ME‑CNN损失函数;判断是否为初始训练集;更新损失函数训练标签;得到预测目标运动位置初始模型;修正预测模型位置;用修正后的目标位置更新训练数据集,完成一帧的目标跟踪;得到遥感视频目标跟踪结果。本发明用深度学习网络ME‑CNN预测目标运动位置,避免了跟踪中大场景图像配准,超模糊目标特征提取难的问题,减小目标特征依赖性,提高了超模糊视频中目标跟踪的准确度。 | ||
搜索关键词: | 基于 运动 估计 me cnn 网络 场景 极小 目标 跟踪 | ||
【主权项】:
1.一种基于运动估计ME-CNN网络的大场景极小目标跟踪方法,其特征在于,包括如下步骤:/n(1)获取极小目标运动估计网络ME-CNN的初始训练集D:/n取原始遥感数据视频A的前F帧图像,对每幅图像的同一个目标连续标记边界框,将每个边界框左上角顶点坐标按视频帧数顺序排列在一起作为训练集D;/n(2)构建估计极小目标运动的网络ME-CNN:包括并联的三个提取训练数据不同特征的卷积模块,再依次层叠连接层、全连接层和输出层;/n(3)用极小目标运动参数计算网络ME-CNN的损失函数:根据目标的运动规律计算得到目标的运动趋势,并将它作为目标对应的训练标签,再计算训练标签与ME-CNN网络的预测结果之间的欧式空间距离,作为ME-CNN网络优化训练的损失函数;/n(4)判断是否为初始训练集:判断当前训练集是否为初始训练集,如果不是初始训练集,执行步骤(5),更新损失函数中的训练标签;反之如果是初始训练集,执行步骤(6),进入网络的循环训练;/n(5)更新损失函数中的训练标签:当前训练集不是初始训练集时,使用当前训练集的数据重新计算损失函数的训练标签,计算方法用极小目标运动参数计算训练标签的方法,与步骤(3)的方法相同,重新计算得到的训练标签,参与运动估计网络ME-CNN训练,进入步骤(6);/n(6)得到预测目标运动位置的初始模型M1:将训练集D输入目标运动估计网络ME-CNN,根据当前的损失函数训练网络,得到预测目标运动位置的初始模型M1;/n(7)修正预测模型的位置结果:计算目标的辅助位置偏移量,用偏移量修正运动估计网络ME-CNN预测的位置结果;/n(7a)得到目标灰度图像块:根据预测目标运动位置的初始模型M1得到下一帧的目标位置(Px,Py),根据得到的目标位置(Px,Py)在下一帧的图像中取出目标的灰度图像块,并进行归一化,得到归一化后的目标灰度图像块;/n(7b)得到目标位置偏移量:对归一化后的目标灰度图像块进行亮度分级,使用垂直投影法确定图像块中目标的位置,计算得到的目标中心位置与图像块中心的位置的距离,即得到目标位置偏移量;/n(7c)得到修正后的目标位置:利用得到的目标位置偏移量修正运动估计网络ME-CNN预测目标的位置,得到目标修正后的所有位置;/n(8)用修正后的目标位置更新训练数据集,完成一帧的目标跟踪:将得到的目标左上角位置加入训练集D最后一行,并移除训练集D的第一行,进行一次性操作,得到了一个修正并更新的训练集D,完成一帧的训练,得到了一帧的目标位置结果;/n(9)判断目前的视频帧数是否小于总视频帧数:如果小于总视频帧数就循环重复步骤(4)~步骤(9),进行目标的跟踪优化训练,直至遍历所有的视频帧,如果等于总视频帧数,结束训练,执行步骤(10);/n(10)得到遥感视频目标跟踪结果:累积得到的输出即为遥感视频目标跟踪结果。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910718847.6/,转载请声明来源钻瓜专利网。