[发明专利]一种杂乱环境下改进的YOLOv2物体检测方法在审
申请号: | 201810564643.7 | 申请日: | 2018-06-04 |
公开(公告)号: | CN109033939A | 公开(公告)日: | 2018-12-18 |
发明(设计)人: | 魏国亮;余玉琴;蔡晨 | 申请(专利权)人: | 上海理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京纪凯知识产权代理有限公司 11245 | 代理人: | 陆惠中;王永伟 |
地址: | 200093 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 物体检测 物体边界 输出检测 杂乱环境 三维坐标信息 交集 计算目标 模型检测 目标物体 边界框 检测 减小 摄像机 改进 输出 保证 图片 | ||
本发明涉及一种物体检测方法,特别是一种杂乱环境下改进的YOLOv2物体检测方法。使用YOLOv2物体检测模型检测物体,输出检测物体边界框的长和宽,输出的长和宽分别缩小K1和K2倍,K1=1.47,K2=1.0612。本发明通过将YOLOv2模型输出检测物体边界框的长和宽分别缩小K1和K2倍,缩小后每个边界框只包含一个物体,多个物体边界框的交集减少,既能保证检测到图片中的所有物体,又大大减小了后续计算目标物体的三维坐标信息、及目标物体到摄像机的距离时的误差,提高了检测精度。
技术领域
本发明涉及一种物体检测方法,特别是一种杂乱环境下改进的YOLOv2物体检测方法。
背景技术
在实现杂乱环境下的物体抓取中,如现实生活中的垃圾分类,需要用彩色摄像机采集彩色图片,然后使用物体检测方法检测目标物体的类别和目标物体在图像中的位置,再通过数据处理计算出目标物体的三维坐标,最后控制机械臂进行目标物体抓取。现有的物体检测算法有多种,如RCNN、Fast-RCNN、Faster-RCNN,YOLO,YOLOv2。前三种物体检测算法速度较慢,目前达不到物体抓取环境下实时检测目标物体的要求。
YOLO检测速度可以达到每秒45帧,但目标物体在图像中的定位误差很大,直接导致YOLO的检测精度并不高。YOLOv2是在YOLO版本上做出的改进,包括新的基础网络、更细的网格划分、多尺度训练、全卷积网络、使用Faster-RCNN的anchor机制、更多的训练技巧等等,使得yolov2在保持原有速度的优势之下,精度上得以提升,YOLOv2对图像中目标物体检测的准确率达到78.6%,检测速度为每秒40帧,使其适用于杂乱环境下物体抓取的目标物体检测。
但YOLOv2和YOLO物体检测算法具有同一缺点:在图像中检测得到的目标物体的边界框太大。在杂乱环境下存在多个物体,边界框太大会导致目标物体的边界框将邻近的物体包括进来。并且目标物体和其他物体边界框的交集很大,进而导致在后续计算目标物体的三维坐标信息、以及目标物体到摄像机的距离时存在很大偏差,降低了检测精度。
发明内容
针对以上不足,本发明提供了一种杂乱环境下改进的YOLOv2物体检测方法,该方法能使物体检测的边界框缩小到合适的范围内,一个边界框只包含一个物体,并且和其它物体边界的交集极小,大大减小了后续的计算误差。
本发明的技术方案为:
一种杂乱环境下改进的YOLOv2物体检测方法,使用YOLOv2物体检测模型检测物体,输出检测物体边界框的长和宽,所述输出的长和宽分别缩小K1和K2倍,所述K1=1.47,所述K2=1.0612。
所述YOLOv2模型的搭建过程包括以下步骤:
S1,使用图像采集设备,采集N类物体的图片,每类物体有M张图片(M≥200);
S2,使用软件标出M×N张图片中各类物体的类别和边界框;
S3,每类物体随机选取0.8×M张图片作为训练集,随机选取0.2×M张图片作为测试集;
S4,使用训练集训练YOLOv2模型,使用测试集测试YOLOv2模型,得到含有模型参数的YOLOv2物体检测模型。
本发明通过将YOLOv2模型输出检测物体边界框的长和宽分别缩小K1和K2倍,K1=1.47,K2=1.0612,缩小后每个边界框只包含一个物体,多个物体边界框的交集减少,既能保证检测到图片中的所有物体,又大大减小了后续计算目标物体的三维坐标信息、及目标物体到摄像机的距离时的误差,提高了检测精度。经过实验证明,本发明的经过改进的YOLOv2物体检测方法,对图像中目标特体检测的准确率达到91%,相对于YOLOv2而言准确率提高了16%。
附图说明
图1为原始YOLOv2模型结构;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海理工大学,未经上海理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810564643.7/2.html,转载请声明来源钻瓜专利网。