[发明专利]一种基于改进YOLOv4的交通标志识别方法在审
申请号: | 202210641405.8 | 申请日: | 2022-06-08 |
公开(公告)号: | CN114998866A | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 韩方;宋清昆 | 申请(专利权)人: | 哈尔滨理工大学 |
主分类号: | G06V20/58 | 分类号: | G06V20/58;G06V10/774;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150080 黑龙江省哈尔*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolov4 交通标志 识别 方法 | ||
1.一种基于改进YOLOv4的交通标志识别方法,其特征在于,包括如下计算步骤:
步骤1:获取交通标志数据集,并对采集到的数据集预处理;
步骤2:改进YOLOv4网络模型;
步骤S1:删除原网络中对小目标检测意义不大的19×19的预测层;通过特征融合利用浅层网络的细节特征增加了尺度为152×152的预测层,改善了小目标特征易丢失的问题,经过改进后的YOLOv4网络在颈部特征融合部分依旧按PANet路径的形式连接,以152×152,76×76,38×38三个尺度输入到预测层;
步骤S2:将经过步骤S1初步改进的YOLOv4网络模型中颈部特征融合部分的PANet路径替换为双向特征金字塔网络BiFPN;
步骤3:将训练集输入经步骤S1、S2改进后的YOLOv4网络进行训练,并保存最优的网络模型;
步骤4:将测试集输入训练最优网络模型中进行测试,验证改进后模型的检测与识别效果。
2.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤1包括如下步骤:
步骤2.1:对采集到的交通标志数据集中的样本图片随机添加高斯噪声,将添加高斯噪声的样本加入到训练集中;
步骤2.2:随机选取数据集中四张图片进行随机翻转、色域变换和缩放等处理后依次放置在四个角落堆叠生成一张与原图大小相同的新图加入训练集,将上述步骤获得的图像加入训练集用于对改进YOLOv4模型进行训练,能提升模型的泛化性能。
3.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤1中,对TT100K交通标志数据集进行标注,将数据集图片按照8:2的比例随机划分为训练集和测试集,最后将TT100K数据集的json格式转换成符合YOLOv4网络输入的txt格式。
4.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤S1中,由于小目标尺寸较小,在低分辨率、大感受野的高层特征图中容易丢失大量小目标的细节信息,因此高层19×19的特征图针对小目标的检测效果并不好,为了提高对小目标的检测效果并缩短检测时间,所以删除原网络模型中尺度为19×19的预测层。
5.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤S1中,为提高对小目标的检测效果,利用CSPDarknet53中经过4倍下采样的特征图与YOLOv4网络中经过8倍和16倍下采样的特征融合图再经上采样后进行特征融合,得到尺度为152×152特征融合图,输出到预测层。
6.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,将经过步骤S1初步改进的YOLOv4网络结构中特征融合网络PANet结构替换为双向特征金字塔网络结构BiFPN。
7.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤4中,配置网络环境,选择Windows10为操作系统和Pytorch框架进行训练,图片输入尺寸为608×608,采用动态学习率改善模型在不同训练阶段的收敛速度,在模型收敛后保存每个epoch训练完得到的权重文件。
8.根据权利要求1所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述步骤4中,预测结果采用mAP和FPS作为性能指标来评价所述改进的YOLOv4网络模型对交通标志的检测能力。
9.根据权利要求4所述的一种基于改进YOLOv4的交通标志识别方法,其特征在于,所述mAP指标的计算方法如下:
步骤M1:计算单个类别的查准率P,其公式如下:
其中,P代表单个类别的查准率,True positives代表单个类别被模型预测为正的正样本数,Total objects代表单个类别被模型预测为正的正样本数与被模型预测为正的负样本数之和;
步骤M2:根据单个类别的查准率P,分别计算每个类别的平均精度AP,其公式如下:
其中,AP代表每个类别的平均精度,∑P代表所有图片的精度之和,Total images代表所有图片之和;
步骤M3:根据所得的单个类别平均精度,计算所有类别的平均精度,其公式如下:
其中,mAP代表所有类别的平均精度,∑AP代表所有类别的精度之和,Total images代表类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210641405.8/1.html,转载请声明来源钻瓜专利网。