[发明专利]一种图像目标检测方法及装置在审
申请号: | 201910150614.0 | 申请日: | 2019-02-28 |
公开(公告)号: | CN109886230A | 公开(公告)日: | 2019-06-14 |
发明(设计)人: | 刘青青;任炬;张尧学 | 申请(专利权)人: | 中南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06T7/80 |
代理公司: | 湖南兆弘专利事务所(普通合伙) 43008 | 代理人: | 蒋维特 |
地址: | 410083 *** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 候选区域 特征图 图像目标检测 输出数据 准确度 特征提取 鲁棒性 小目标 检测 标定 网络 融合 | ||
本发明公开了一种图像目标检测方法及装置,方法包括:S1.在特征提取网络中,获取其中至少2个阶段的输出数据,并对所述输出数据进行融合,生成超特征图;S2.通过目标候选区域提取网络对所述超特征图进行候选区域提取,得到目标候选区域;S3.在所述超特征图和所述目标候选区域的基础上对目标进行标定。具有检测任意角度目标鲁棒性强,检测小目标准确度高等优点。
技术领域
本发明涉及图像处理领域,尤其涉及一种图像目标检测方法及装置。
背景技术
深度学习便是近年兴起的智能学习特征提取的一类算法,如图2所示,包括基于proposal的目标检测算法包括RCNN,SPP-NET,Fast RCNN和Faster RCNN等,基于回归的单卷积神经网络的目标检测方法有YOLO,YOLOv2和SSD等等。但是以上方法主要是针对自然场景下的目标检测,自然场景下的物体大多轮廓清晰,特征明显,呈水平或垂直位置。然而航拍图像中的目标小,方位多变,排列多样,背景复杂,这些特性使得自然场景下的经典目标检测算法无法直接移植使用。对于航拍图像中目标的检测,目前的方法大多数只实现了单类物体的检测,是为解决具体问题而提出,如检测电线,桥梁、船舶,车辆等等。航拍图像的检测方法可以主要分为两类,一类是多模型独立训练的方法,另一类是端到端训练的方法,即算法中的模型只有一个。
多模型独立训练的方法中,一部分方法先借用先验知识、特征算子或神经网络等构建获取图像特征的模型,然后利用训练好的分类器对特征进行分类和定位,实现对目标的检测。另一部分方法先对图像进行分割,定位目标可能存在的区域,然后利用训练好的分类器对区域中的目标分类和定位。这类方法大部分没有考虑物体角度变化和物体小给检测带来的影响。为了检测多角度的物体,Xu和Yu等人2017年在‘IEEE Transactions onIntelligent Transportation Systems’第99期的1至12页中提出了‘An enhanced viola-jones vehicle detection method from unmanned aerial vehicles imagery’。该方法通过旋转图片来改变道路和公路车辆的方位,然后直接使用Viola-Jone方法来检测道路上的车辆。该方法的核心是根据道路与图像水平之间的角度旋转图像。但该方法难以适用于图中没有道路作为旋转参考或更复杂的场景,且还是使用水平的矩形框标定物体。
端到端训练的方法基本是基于深度学习的目标检测算法。Tang和Zhou等人2017年‘Remote Sensing’第9(11)期中提出了‘Arbitrary-oriented vehicle detection inaerial imagery with single convolutional neural networks’(Oriented_SSD),Yang和Sun等人2017年在‘Remote Sensing’第10(1)期中提出了‘Automatic ship detectionin remote sensing images from google earth of complex scenes based onmultiscale rotation dense feature pyramid networks’(R-DFPN)。这两种方法都实现了对任意角度的目标检测,且Oriented_SSD基于的SSD网络天然对小目标有不错的检测能力,R-DFPN则利用特征金字塔来提升算法对小目标的检测能力。但是这两种方法的计算较为复杂,并且分别只检测交通工具和船,是对具体问题的解决。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种检测任意角度目标鲁棒性高,检测小目标能力更好的图像目标检测方法及装置。
为解决上述技术问题,本发明提出的技术方案为:一种图像目标检测方法,S1.在特征提取网络中,获取其中至少2个阶段的输出数据,并对所述输出数据进行融合,生成超特征图;
S2.通过目标候选区域提取网络对所述超特征图进行候选区域提取,得到目标候选区域;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南大学,未经中南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910150614.0/2.html,转载请声明来源钻瓜专利网。