[发明专利]一种基于人工干预的舰船目标跟踪方法在审
申请号: | 201810273119.4 | 申请日: | 2018-05-28 |
公开(公告)号: | CN108537826A | 公开(公告)日: | 2018-09-14 |
发明(设计)人: | 庄祐存 | 申请(专利权)人: | 深圳市芯汉感知技术有限公司 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06T7/73 |
代理公司: | 深圳市科吉华烽知识产权事务所(普通合伙) 44248 | 代理人: | 胡玉 |
地址: | 518000 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 舰船 舰船目标 人工干预 视频载体 跟踪 人工干预操作 方框 网络 操作结束 跟踪结果 跟踪区域 跟踪误差 区域信息 归一化 人眼 标注 鼠标 观测 绘制 追踪 修正 监测 学习 | ||
1.一种基于人工干预的舰船目标跟踪方法,其特征在于,包括以下步骤:
S1.手动勾勒出某视频载体上第一帧中的舰船区域信息;
S2.将归一化大小后的视频载体输入到Fast-RCNN网络中,通过Fast-RCNN网络对第一帧之后的帧进行舰船区域的追踪监测,获得每一帧中的舰船的位置信息;
S3.通过人眼观测当前帧中舰船的位置信息,并判断标注结果是否合格;
S4.若不合格,则通过人工用鼠标绘制一个方框,然后将舰船区域包括起来,完成人工干预操作后,继续步骤S2;
S5.对视频载体中的每一帧皆执行以上步骤,直到跟踪操作结束。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2还包括以下步骤:
S21.对Fast-RCNN网络进行目标训练;
S22.采用Fast-RCNN网络进行目标跟踪。
3.根据权利要求2所述的方法,其特征在于,所述步骤S21还包括以下步骤:
A.对于训练集中的每一张图片,通过selective search方法,从中获取若干个候选区域,并记录下,每一个候选区域的位置坐标信息;
B.对于步骤A中的每一个候选区域,将其进行标注标签,即0或1,1代表该候选区域包含舰船部分,0表示该候选区域不包含舰船区域部分;
C.对于步骤A中的每一个区域,都存在其修正位置坐标,即:
若当前候选区域的标注信息为1,则说明当前候选区域Ri中包含着舰船区域,我们记录下其修正坐标位置信息,该修正坐标信息,包含着一个方框对应的左上角顶点坐标以及方框的宽度和长度信息,而该方框则恰好将舰船部分包围起来;
D.该若干个候选区域构成了网络的输入,每个候选区域所对应的标注以及其对应修正位置信息构成了网络的输出;
E.根据步骤D中得出的网络输入和输出对Fast-RCNN网络进行训练,通过使用BP算法来更新神经元的权重和偏置,最终使得Fast-RCNN网络达到收敛状态。
4.根据权利要求3所述的方法,其特征在于,所述步骤A包括以下步骤:
S211.设置候选区域的面积大小以及长宽比范围;
S212.随机在视频帧中选取一点,记为M,然后计算视频帧中任意一点N和点M之间的颜色差异度,若颜色差异度小于与之K,则将点N滑入点M的集合范围内,颜色差异度X的计算公式为:
其中,其中MR、MG、MB分别表示点M在R、G以及B三个分量上的像素值,同理NR、NG和NG分别表示点N在R、G以及B三个分量上的像素值,点N不与点M重合,K=150;
S213.重复选择点N,并执行差异度计算,扩大点M的集合范围,点M的集合范围最终将构成一个图像区域,则该图像区域便构成了上述若干个候选区域的一个部分;
S214.若上述候选区域满足步骤S211中设置的候选区域的面积大小以及长宽比范围,则终止步骤S213;
S215.随机选取不同的点M,并执行步骤,并执行步骤S213-S214,且满足每次获取的候选区域尺寸均在步骤S211中的尺寸条件范围内,但是候选区域尺寸不重复。
5.根据权利要求2所述的方法,其特征在于,所述步骤S22包括以下步骤:
S221.Fast-RCNN网络将输入的视频载体的每一帧都输出多个图像区域,对于每个图像区域,以一对坐标点以及两个参数w和h表示;以该对坐标点为矩形的左上角顶点,w和h分别表示矩形的宽度和长度,则该矩形所包围的区域便是网络所认为的舰船区域;
S222.通过上一帧中所确定的跟踪区域来确定当前帧中最终的舰船的位置信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市芯汉感知技术有限公司,未经深圳市芯汉感知技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810273119.4/1.html,转载请声明来源钻瓜专利网。