[发明专利]一种面向视觉特征非连续性干扰的船舶图像航迹提取方法在审
| 申请号: | 202211000946.9 | 申请日: | 2022-08-19 |
| 公开(公告)号: | CN115346155A | 公开(公告)日: | 2022-11-15 |
| 发明(设计)人: | 陈信强;陈伟平;杨勇生;吴兵;李朝锋;吴华锋;鲜江峰 | 申请(专利权)人: | 上海海事大学;武汉理工大学 |
| 主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V10/80;G06V20/52 |
| 代理公司: | 北京东方盛凡知识产权代理有限公司 11562 | 代理人: | 张鸾 |
| 地址: | 201306 上*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 面向 视觉 特征 连续性 干扰 船舶 图像 航迹 提取 方法 | ||
1.一种面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,包括:
采集船舶图像,所述船舶图像包括:船舶被遮挡的场景图像和船舶未被遮挡的场景图像;
根据DeepSnake模型和YOLOX模型,对所述船舶图像进行检测,获取图像序列中的船舶位置;
将所述船舶位置与所述DeepSnake模型的检测结果输入至所述DeepSnake模型中,获取所述船舶的外表轮廓;
基于所述外表轮廓与所述船舶位置对所述船舶进行轨迹跟踪,获取所述船舶在图像序列中的运动轨迹。
2.根据权利要求1所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,根据所述DeepSnake模型对所述船舶图像进行检测前包括:
对所述船舶图像进行线性插值处理,对线性插值处理后的所述船舶图像进行像素归一化操作。
3.根据权利要求1所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,获取图像序列中的船舶位置包括:
利用所述DeepSnake模型对所述船舶图像进行特征提取,获得船舶特征图,并根据所述船舶特征图获取所述船舶的第一初步船舶位置群;
根据所述YOLOX模型对所述船舶图像进行检测,获取所述船舶的第二初步船舶位置群;
基于所述第一初步船舶位置群与所述第二初步船舶位置群,获取所述船舶位置。
4.根据权利要求3所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,对所述第一初步船舶位置群与所述第二初步船舶位置群进行融合包括:
对所述第二初步船舶位置群进行极大值抑制处理,获取第三初步船舶位置群;
对所述第一初步船舶位置群与所述第三初步船舶位置群取交集,获取第一确定船舶位置群;
将未在所述交集中的所述第三初步船舶位置群的探测框的置信度,与预设最低置信度进行对比,将大于所述预设最低置信度的所述探测框进行保留,获得第二确定船舶位置群;
利用所述第三初步船舶位置群对所述第一确定船舶位置群和所述第二确定船舶位置群,进行交并比处理,获取第三确定船舶位置群;
将所述第一确定船舶位置群、第二确定船舶位置群和第三确定船舶位置群进行融合。
5.根据权利要求3所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,获取所述船舶的外表轮廓包括:
将所述船舶位置映射至所述船舶特征图上进行结合,利用所述DeepSnake模型对映射结合结果进行轮廓提取,获得所述外表轮廓。
6.根据权利要求1所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,获取所述船舶在图像序列中的运动轨迹包括:
引入所述外表轮廓改进ByteTrack多目标跟踪算法,对所述船舶位置进行轨迹跟踪,获取初步运动轨迹;其中,所述初步运动轨迹中包括:跟踪成功的轨迹和未跟踪成功的轨迹;所述初步运动轨迹中船舶运动状态的表达式为:
式中,x和y表示船舶位置的中心坐标,a为船舶图像高度与宽度的比值,h为船舶图像的高度,分别表示对应参数的一阶导数;
判断所述未跟踪成功的轨迹中船舶的外表轮廓是否被遮挡,若被遮挡,则采用卡尔曼滤波对所述未跟踪成功的轨迹进行提取;
将提取后的轨迹与所述跟踪成功的轨迹进行结合,获得完整的所述运动轨迹。
7.根据权利要求6所述的面向视觉特征非连续性干扰的船舶图像航迹提取方法,其特征在于,获取初步运动轨迹包括:
利用所述船舶位置所在的图像序列中的第一帧位置检测值对卡尔曼滤波器进行初始化;
利用所述卡尔曼滤波器对所述船舶位置进行预测与更新,获取所述船舶在所述图像序列中每一帧的位置预测值和对应的外表轮廓位置;
对所述图像序列中每一帧的位置预测值和对应的外表轮廓位置进行ID匹配,获取所述初步运动轨迹。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海海事大学;武汉理工大学,未经上海海事大学;武汉理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211000946.9/1.html,转载请声明来源钻瓜专利网。





