[发明专利]基于深度学习的水面小目标检测与分类方法在审
申请号: | 202110796985.3 | 申请日: | 2021-07-14 |
公开(公告)号: | CN113591617A | 公开(公告)日: | 2021-11-02 |
发明(设计)人: | 蒋仲廉;倪汉杰;初秀民;聂梓熠 | 申请(专利权)人: | 武汉理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 湖北武汉永嘉专利代理有限公司 42102 | 代理人: | 王丹 |
地址: | 430070 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 水面 目标 检测 分类 方法 | ||
本发明公开了一种基于深度学习的水面小目标检测与分类方法,具体为:将原始数据集中的夜间、雨雾场景图像处理后加入原数据集;图像处理后按指定规格重构,设定不同IOU阈值界定样本分布,将样本输入主干卷积神经网络进行特征提取;将卷积网络的不同特征层融合,获得多尺度信息的高级特征;通过高级特征对生成的不同尺度候选框进行神经网络训练,得到建议框,结合最后一层特征层输入感兴趣区域层,得到建议框与特征层之间的映射层;将映射层输出到分类器与回归器中,训练得到这一轮的目标分类与定位模型;将前一轮检测模型的输出的当前阶段目标建议框作为下一轮检测模型的输入,级联各检测模型最终得到优化的目标检测模型。
技术领域
本发明涉及图像处理领域,具体为一种针对极大面向内河水面航标设施等小目标的物体位置和类别的精准检测与分类方法。
背景技术
现有用于水路交通运输领域的深度学习目标检测方法可大致分为基于候选区域与基于端到端两种,候选区域代表算法有Faster-RCNN、Mask-RCNN、R-FCN等,这类算法主要分为两个阶段,先从原始图像上训练生成可能的建议区域框,随后对将特征图与区域框输入感兴趣区域池化层,开展分类识别与回归定位;由于算法特性,基于候选区域的方法往往具有较高的识别准确率,但训练速度较慢,硬件要求偏高,计算成本大。端到端的代表算法有YOLO系列检测框架、SSD、RetinaNet等,这类算法将识别任务视作一个整体回归问题,去除了候选区域生成阶段,直接对输出的类别误差与定位偏差进行训练;基于端到端的算法具有较高的识别速度,但检测精度较低,对多尺度目标任务识别效果较差。
目前,内河水运领域的水上目标检测主要聚焦于船舶的识别与跟踪上,对航道基础设施研究不足,航道基础设施图像数据集平台短缺,以航标为例,内河航标在体积、形状、运动特征上与船舶具有较大差别。远距离观测时,由于航标体积较小,其检测与分类的判别依据要求更高;作为标识可航水域边界的标志,航标等助航设施的精确识别与判定对于船舶航行安全具有重要意义。
发明内容
本发明的目的在于提供一种基于深度学习的水面小目标检测与分类方法,提高识别和分类速度,提升识别准确率。
为解决上述技术问题,本发明提供了一种技术方案:一种基于深度学习的水面小目标检测与分类方法,该方法包括以下步骤:
S1、图像预处理:针对原始数据集雨雾场景图像与夜间场景图像,分别采用改良MSPFN去雨雾算法与优化MSR图像增强算法进行处理,处理后的图像加入原数据集,生成新数据集;
S2、新数据集按指定规格重构,随后设定不同的IOU阈值界定样本分布,将样本输入主干特征提取卷积神经网络,提取图像的不同特征层的特征;
S3、将提取到的不同特征层融合,以获得多尺度信息的高级特征;
S4、通过高级特征对生成的不同尺度候选框进行神经网络训练,得到建议框,结合最后一层特征层将建议框输入感兴趣区域层,得到建议框与特征层之间的映射层;
S5、将映射层输出到分类器与回归器中,进一步改善建议框,训练得到这一轮的检测模型;
S6、将前一轮检测模型输出的当前阶段目标检测框作为下一轮检测模型的输入,使得IOU阈值不断上升,级联各检测模型得到优化目标检测模型。
按上述方案,所述的优化MSR算法,该方法步骤为:
步骤1,将原始的RGB图像通过颜色恢复函数转换为HSV图像;
步骤2,对HSV图像中的V分量图像进行高斯滤波,得到入射分量图像与反射分量图像;
步骤3,将反射分量图像由HSV图像转变为RGB图像,采用色彩恢复因子参数调节图像局部区域对比度,随后输出图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉理工大学,未经武汉理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110796985.3/2.html,转载请声明来源钻瓜专利网。