[发明专利]一种基于Faster Rcnn的小目标检测识别方法在审
申请号: | 202110504503.2 | 申请日: | 2021-05-10 |
公开(公告)号: | CN113159215A | 公开(公告)日: | 2021-07-23 |
发明(设计)人: | 刘群坡;王淇璟;刘尚争;王满利;张建军;吴中华;魏萍 | 申请(专利权)人: | 河南理工大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06K9/46;G06N3/04;G06N3/08 |
代理公司: | 焦作市科彤知识产权代理事务所(普通合伙) 41133 | 代理人: | 杨晓彤 |
地址: | 454000 河南*** | 国省代码: | 河南;41 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 faster rcnn 目标 检测 识别 方法 | ||
本发明涉及一种基于Faster Rcnn的小目标检测识别方法,属于计算机视觉识别系统技术领域,具体包括配置环境,搭建基于Faster Rcnn的小目标检测识别模型以及模型训练平台,小目标检测识别模型包括数据预处理;骨干网络、区域建议网络和头部网络。本申请的有益效果为:用resnet50作为主干网络提取图像特征,以及配合使用Roi Align方法,减小了网络的量化误差,还可以精确获得了原图中物体的位置坐标信息,采用DIOU算法,解决了在计算传统Iou时两框包含与分离时的值不变的问题。
技术领域
本发明涉及计算机视觉识别系统技术领域,特别涉及一种基于Faster Rcnn的小目标检测识别方法。
背景技术
目标检测是计算机视觉领域的一大基本任务,被广泛应用于人脸识别、自动驾驶、视频监控、军事侦察等领域。近年来,随着计算机信息技术的发展,深度学习被大量应用于目标检测任务中,使得目标检测完成了从手动提取人工设计的特征到应用卷积神经网络让计算机自动提取特征的转变,极大的提高了速度和准确度,使得基于深度学习的目标检测算法成为图像处理领域研究的主流。
基于深度学习的目标检测算法主要分为目标定位和目标识别这两个基础任务,目的就是对图像中的每一个目标进行精确的分类并用包围盒框出每一个目标具体的位置。目标比较流行的目标检测方法主要分为两类,其中一类是YOLO系列算法(YOLOv3、YOLOv4、YOLOv4_tiny),该系列算法是one-stage的,主要步骤是直接对输入图像进行卷积操作,提取图像特征并在特征图上进行边框回归;另一类是R-CNN系列算法(R-CNN,Fast R-CNN,Faster R-CNN),该系列算法是two-stage的,主要步骤是先通过各种图像处理技术生成可能包含目标的候选区域集合,再利用卷积神经网络对候选区域提取特征,最后进行精确的目标分类和边框回归。YOLO系列算法速度快,准确度要低一点,R-CNN系列算法速度慢,准确度要高一点。
尽管上述两类算法经过不断改进,在速度和精度上逐渐提升,但是对自然场景中的小型目标的检测依然存在精度不高或漏检等问题。小目标一般是指尺寸小于32*32像素的目标,由于小目标的像素数在原图中占比小,携带的特征少,纹理、形状、颜色等外观信息缺乏,再经过卷积神经网络中的下采样操作,特征信息逐步丢失,使得小目标的检测难度增大,检测精度普遍偏低。
综上所述,现有技术中针对小目标检测识别方法还多有不足,还需要进行改进。
发明内容
本发明的目的在于提供一种基于Faster Rcnn的小目标检测识别方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明采用如下技术方案:一种基于Faster Rcnn(FasterRegion-based ConvolutionalNetwork method,基于区域的更快卷积神经网络)的小目标检测识别方法,包括配置环境,搭建基于Faster Rcnn的小目标检测识别模型以及模型训练平台,所述小目标检测识别模型包括四个部分:
1)、数据预处理:对训练数据集中的原始图片进行数据增强,并对数据增强后的训练数据集中图像小目标进行标注,形成小目标数据集;数据预处理对网络模型是十分重要的,它直接影响到网络训练的结果,因为一般成功的神经网络都需要大量的参数,而这些参数都需要从数据只提取出来,但是有时训练数据集可能没有这么多数据,这就需要数据预处理来提高图片的数量。由于小目标在图中所占比例小,所以这里使用随机的翻转、错切、缩放、旋转、对比度拉伸、裁剪的一种或多种组合对原始图片进行数据增强的方法来提高小目标在图像中的多样性,给网络提供更多的特征数量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河南理工大学,未经河南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110504503.2/2.html,转载请声明来源钻瓜专利网。