[发明专利]一种基于改进YOLOv4的交通标志识别方法在审
申请号: | 202210641405.8 | 申请日: | 2022-06-08 |
公开(公告)号: | CN114998866A | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 韩方;宋清昆 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06V20/58 | 分类号: | G06V20/58;G06V10/774;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙江省哈尔*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolov4 交通标志 识别 方法 | ||
本发明公开了一种基于改进YOLOv4的交通标志识别方法。其包括如下步骤:(1)采集交通标志数据集,并对采集到的交通标志数据集进行数据增强等操作;(2)进行图像标注,按照8:2的比例划分为训练集和测试集;(3)搭建改进的YOLOv4网络模型,并采用获取到的交通标志训练集对改进了的YOLOv4网络模型进行训练;(4)利用训练好的YOLOv4改进网络模型对测试集的交通标志图像进行检测与识别。本发明改进的YOLOv4网络能在保证检测速度的前提下,提高对小目标交通标志的检测精度。
技术领域
本发明涉及计算机视觉、图像处理领域,具体涉及一种基于改进YOLOv4的交通标志识别方法。
背景技术
近年来目标检测算法不断取得重大的突破,但大都对小目标的检测效果并不理想。随着城市交通的智能化运行,无人驾驶智能车辆逐渐发展,成为人们发展和研究的目标,无人驾驶智能车辆的进步,势必需要交通标志检测与识别的快速发展支持,进而智能车辆在不久的将来便会遍布各地。交通标志检测与识别不仅加速无人驾驶车辆的发展,而且在人们的日常行驶中起到了十分重要的辅助驾驶作用,在现实道路交通中交通标志对于整体环境而言属于小目标物体,因此对小目标交通标志检测与识别的研究具有十分重要的意义。
目前主流的目标检测算法大致可以分为两大类,第一类主要是以R-CNN、Fast R-CNN、Faster R-CNN等为代表的two stage目标检测算法,此类算法将目标检测分为两个阶段,首先会基于候选区域生成网络生成一系列候选框,候选框会框出我们所需要检测部分的位置,然后利用卷积神经网络再对所框出位置进行具体的定位及分类,此类方法由于先生成候选区域,再进行分类与回归,虽然检测的精度较高但检测的时间较长,不能满足实时性的要求;另一类主要是以YOLO(You Only Look Once)系列以及SSD(Single Shotmultibox Detector)等为代表的one stage目标检测算法,此类算法不需要生成候选区域,使用一个卷积神经网络直接对输入的图片特征提取并预测检测目标的位置信息,是一种端到端的检测方法。多阶段检测算法模型具有较高的检测精度,但单阶段检测器具有更快的检测速度和更高的可扩展性,但是也存在不足之处即对于小目标的检测效果始终不理想,实时性是实际场景应用中的关键性指标,因此提高一阶段检测算法具有更高的实用价值。
随着YOLO系列的不断发展,YOLOv4算法目前在目标检测领域中具有较出色的检测精度与速度,但是众所周知,自然天气、光照角度、实际道路的复杂背景等都会影响目标检测中对小目标交通标志的识别精度,从而导致识别结果精度不高等问题,因此,需要对YOLOv4算法模型进行改进在保证检测实时性的前提下,以满足交通标志目标较小的交通场景的高检测精度。
发明内容
为解决上述问题,本发明提供一种基于改进YOLOv4的交通标志识别方法,在保证检测速度的前提下,提高对小目标交通标志的检测精度。
针对现有技术中的缺陷,本发明提供了一种基于改进YOLOv4的交通标志识别方法。实现本发明的技术方案是:
一种基于改进YOLOv4的交通标志识别方法,包括以下步骤:
步骤1:预处理TT100K(Tsinghua Tencent 100K)交通标志数据集;
步骤2:构建改进的YOLOv4网络模型,采用训练集训练改进的网络模型;
步骤3:调试参数,保存最优结果;
步骤4:将交通标志测试集输入进训练好的改进YOLOv4网络模型中,进行检测与识别。
进一步地,步骤1、步骤2中的详细步骤如下:
步骤1中所述的预处理TT100K交通标志数据集包括:
步骤1.1:对交通标志数据集中的训练样本随机添加高斯噪声,将添加高斯噪声的样本加入到训练集中;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210641405.8/2.html,转载请声明来源钻瓜专利网。