[发明专利]一种基于改进高效率网络的车型识别方法在审
| 申请号: | 202011202614.X | 申请日: | 2020-11-02 |
| 公开(公告)号: | CN113205107A | 公开(公告)日: | 2021-08-03 |
| 发明(设计)人: | 柳长源;何先平;张林林;李道璐 | 申请(专利权)人: | 哈尔滨理工大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 150080 黑龙*** | 国省代码: | 黑龙江;23 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 改进 高效率 网络 车型 识别 方法 | ||
本发明公开了一种基于改进高效率网络的车型识别方法,所述方法包括:采用EfficientNets作为车型识别的基础网络,根据数据集选择与其最适配的网络,通过复合缩放的方法来平衡网络的深度、宽度、分辨率,实现三个维度之间的平衡,在利用深度可分离卷积代替普通卷积的基础上在网络最后添加softmax分类器进行分类,用标签平滑正则化对损失函数进行处理来代替原始模型中的交叉熵损失函数,从而减小模型过拟合问题本,发明将深度学习EfficientNets用于车型识别,利用其复合缩放的优势,增加softmax分类器进行分类,用标签平滑正则化对损失函数进处理,提高网络的容错性与车型识别的准确率。
技术领域
本发明涉及计算机图像处理与车型识别技术领域,具体涉及一种基于改进高效率网络的车型识别方法。
背景技术
现代化经济社会的迅猛发展,人们生活水平的飞速提升,使得车辆的使用同比例也飞速增长。一个城市的交通在很大程度上代表着这个城市的发展,而由于车辆的不断增加给城市交通管理带来了一定的困难。为了适应车辆的逐年增多,建立能够高效、便捷管理交通的智能交通系统是城市发展的重要前提,而车流量分析、全自动收费系统作为智能交通系统中的重要组成部分则需要依靠车型的识别与分类。
车型分类主要是根据车型、车身的主要标志等外观特征对车辆进行分类,但由于在交通监控下所得到的车辆图像大部分只包括车辆正面以及部分侧面信息,在加上天气情况、拍摄角度、光照程度等外在干扰因素,使得车型分类的准确率在一定程度上受到影响。
传统的车型分类算法包括特征提取与分类器设计两个部分,而近年来随着机器学习和计算机视觉的不断发展,越来越多的研究者采用机器学习的方法来进行车型的分类。2012年,AlexNet在ILSVRC(Large Visual Recognition Challenge)竞赛中崭露头角,加速了卷积神经网络在图像分类中的应用。VGGNet,GoogleNet,RestNet等网络逐渐被应用到图像分类的网络中。
发明内容
本发明所要解决的技术问题是提出了一种基于改进高效率网络的车型识别方法,由此解决现有的车型识别算法容易受光照、天气影响而产生特征描述不充分、分类不准确的情况。
为实现上述目的,本发明提供的技术方案为:一种基于改进高效率网络的车型识别方法,其流程图如图1,具体包括如下步骤:
1)数据处理
为更好的训练模型,采用北京理工大学制作的BIT-Vehicles数据集,其中包含了车辆在图片中的位置信息以及车辆的类型,对数据集进行处理,并分为训练集和测试集,输入车辆分类网络模型中。
2)模型选择
将处理完的数据集输入到EfficientNetB0~B7的八个网络中进行训练,选择与数据集最为匹配的网络作为基础分类网络。
3)模型构建
EfficientNet网络中使用MBConv卷积块为基本模块,利用深度可分离卷积代替普通卷积,并在网络最后添加softmax分类器进行分类。
4)损失函数的选择
交叉熵损失函数注重于标签预测的准确率,而忽略了其他非正确标签的差异性,容易造成过拟合问题,因此选择标签平滑正则化对损失函数进行处理来代替原始模型中的交叉熵损失函数。
进一步的所述步骤1)具体为采用北京理工大学制作的BIT-Vehicles数据集,该数据集中所有图像来自真实交通中的监控视频截图,其中包括公共汽车、微型客车、小货车、小轿车、越野车、卡车6类车型,总共9850张图像,由于不同车型之间的图像数据量相差过大,因此通过调节图像亮度、图像翻转等方法对样本量较小的公共汽车、微型客车、小货车、卡车类别数据进行了数据扩充,对样本量较大的小轿车、越野车、类别进行了随机抽取,并将图像分辨率归一化为224×224大小。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨理工大学,未经哈尔滨理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011202614.X/2.html,转载请声明来源钻瓜专利网。





