[发明专利]基于YOLO的车辆前方障碍物检测方法在审
申请号: | 201811353905.1 | 申请日: | 2018-11-14 |
公开(公告)号: | CN109447033A | 公开(公告)日: | 2019-03-08 |
发明(设计)人: | 王超 | 申请(专利权)人: | 北京信息科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 刘冰 |
地址: | 100101 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 车辆前方 障碍物检测 训练集图像 标注框 置信度 网格 标注 预处理 目标检测算法 获取数据 目标类别 测试集 初始化 候选框 权值和 训练集 障碍物 检测 准确率 测试 图像 输出 分割 预测 | ||
基于YOLO的车辆前方障碍物检测方法,本发明涉及车辆前方障碍物检测方法。本发明的目的是为了解决现有目标检测算法检测准确率低、检测速度慢的问题。具体过程为:一、获取数据集,利用标注框标注训练集图像中每一个目标;二、初始化卷积神经网络,将标注框标注完的训练集输入卷积神经网络;三、对训练集图像进行预处理;四、分割成7*7的网格;五、网格选取初始候选框;六、得到目标类别M的类别置信度;七、根据类别置信度设置卷积神经网络输出,得到最终预测框;八、得到最终权值和训练完的卷积神经网络;九、利用训练完的卷积神经网络对测试集图像进行测试,确定车辆前方障碍物。本发明用于车辆前方障碍物检测领域。
技术领域
本发明涉及车辆前方障碍物检测方法。
背景技术
随着人工智能的不断发展,以及市场需求的逐渐提升,无人驾驶逐渐成为了国内外专家研究的热点。车辆前方障碍物检测是无人驾驶系统中的一个重要环节。在真实的交通场景下,目标检测受到很多因素,例如:光照、遮挡等的影响。如何快速、准确地对复杂交通场景下的车辆前方目标进行识别和定位,关系着无人驾驶领域的安全性,是一个值得深入研究的课题。
随着深度学习的不断发展,研究人员开始将其应用在目标检测领域,它为整个领域带来了巨大变化。卷积神经网络可以很好的提取图像特征,避免了早起手工提取特征的缺点。一个卷积神经网络便可将特征提取和分类融合在一起,这使检测准确度和速度大大提升。在2014年,Girshick等人基于卷积神经网络提出了R-CNN目标检测模型。该模型将深度学习和传统的分类器思想结合起来,通过卷积神经网络提取特征并使用SVM进行分类,最终的准确率相较于传统算法有了很大的提升,但检测准确率并不能达到要求,检测准确率低。由于在选择候选区域时所花费的时间较多且算法较复杂,该模型的检测速度并不能达到实时要求,检测速度慢。
发明内容
本发明的目的是为了解决现有目标检测算法检测准确率低、检测速度慢的问题,而提出基于YOLO的车辆前方障碍物检测方法。
基于YOLO的车辆前方障碍物检测方法具体过程为:
步骤一、获取数据集,数据集分为训练集和测试集,利用标注框标注训练集图像中每一个目标,得到训练集图像中每一个目标的位置信息与类别信息;
步骤二、初始化卷积神经网络,将标注框标注完的训练集输入卷积神经网络;
步骤三、对训练集图像进行预处理;
步骤四、将预处理后的训练集图像分割成网格;
步骤五、网格选取初始候选框;
每个网格随机生成两个初始候选框;
步骤六、网格进行目标检测,得到目标类别M的类别置信度;
步骤七、根据类别置信度设置卷积神经网络输出,得到最终预测框;
步骤八、将步骤一中标注框标注的训练集图像作为卷积神经网络的输入,步骤七得到的最终预测框的训练集图像作为卷积神经网络的输出,训练卷积神经网络,得到最终权值和训练完的卷积神经网络;
步骤九、利用训练完的卷积神经网络和最终权值对测试集图像进行测试,确定车辆前方障碍物。
本发明的有益效果为:
本发明基于YOLO的车辆前方障碍物检测方法,首次将YOLO模型应用在自动驾驶中复杂场景下的车辆目标检测,YOLO模型结构简单,检测准确率高,同时检测速度快,能够满足目标检测的要求,并对YOLOv2和YOLOv3版本进行对比。结果表明,YOLOv2对车辆目标检测的mAP(mean Average Precision)可以达到53.58%,检测速度达到了62帧每秒,而YOLOv3对车辆目标检测的mAP可以达到70.22%,检测速度达到了34帧每秒,可基本满足目标检测要求。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京信息科技大学,未经北京信息科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811353905.1/2.html,转载请声明来源钻瓜专利网。