[发明专利]一种实时交通场景的多车牌动态识别方法在审
申请号: | 201810368034.4 | 申请日: | 2018-04-23 |
公开(公告)号: | CN108509954A | 公开(公告)日: | 2018-09-07 |
发明(设计)人: | 张中;牛雷 | 申请(专利权)人: | 合肥湛达智能科技有限公司 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 昆明合众智信知识产权事务所 53113 | 代理人: | 钱磊 |
地址: | 230088 安徽省合肥市高新*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 车牌定位 动态识别 实时交通 网络训练 车牌 图像后处理 图像预处理 场景 车牌信息 创新优势 违章行为 字符分割 字符识别 字符信息 传统的 停车场 网络 高速公路 分割 监测 应用 图片 | ||
本发明公开了一种实时交通场景的多车牌动态识别方法,主要分为图像预处理、车牌定位网络训练、图像后处理、识别网络训练等几个主要步骤。利用车牌定位网络和字符识别网络,能够在不分割字符信息的情况下,高效实时地识别单张图片中的多个车牌信息,相较于传统的字符分割、识别方法具有创新优势,并可大量应用到停车场收费、高速公路等违章行为监测中。
技术领域
本发明涉及机器视觉和图像处理技术领域,具体是一种实时交通场景的多车牌动态识别方法。
背景技术
近年来,随着智能交通领域的快速发展,车牌自动识别算法的研究引起了越来越广泛的关注。自动化、快速、准确和强大的车牌识别系统已经成为交通管制和交通法规执法的需求。
传统的车牌识别方法主要分为车牌区域定位、车牌字符分割、字符识别三个步骤,且都是基于单张图片的单个车牌进行识别。现有技术CN107220638A 公开了一种基于深度学习卷积神经网络的车牌检测识别方法,其主要内容包括:数据采集模块、检测识别训练模块、字符定位测试模块,其过程为,首先使用构造自动储存系统来归类真实世界中含有车牌的图像,在不同光照、可视角度、场景中采集足够数量的车牌与切割字符图像,然后使用一系列深度神经网络进行车牌检测与识别的训练,得到的模型再由切割好的字符单独进行检测与识别,最终合并成为结果。该技术优点在于将不同场景条件下的车牌与切割完好的车牌字符输入已经训练好的网络,其中字符切割与识别部分是设计了多步骤的分割操作,然后对字符进行分类与检测。但是该技术虽然能够识别车牌,但是由于受光照强度、车牌形状、污迹遮挡等一系列原因的影响,并不能够对字符进行完美的切割,这就对后续的识别过程带来了很大的不确定性。
又有现有技术CN107590774A提供了一种基于生成对抗网络的车牌清晰化方法及装置,包括:将目标车牌图像输入至生成网络,生成网络由样本车牌图像训练得到,用于将低分辨率的车牌图像进行清晰化处理,并生成符合车牌标准的高分辨率的车牌图像,其中,样本车牌图像为符合车牌标准的车牌图像;基于生成网络,对目标车牌图像进行清晰化处理;输出符合车牌标准的清晰车牌图像。该技术优点在于将车牌图像进行清晰化处理,根据清晰化图像分析识别车牌,提高了识别准确度。但是该技术的清晰化处理为在低分辨率图片中提取图像,低分辨率提取过程可能会造成车牌照片发生改变,最终导致车牌识别错误。
发明内容
本发明的目的在于提供一种实时交通场景的多车牌动态识别方法,以解决上述背景技术中提出的车牌识别易受外界环境因素影响,在车牌清晰化过程中易出现车牌提取错误导致车牌识别误差的问题。
为实现上述目的,本发明提供如下技术方案:
一种实时交通场景的多车牌动态识别方法,其特征在于运用多种卷积神经网络对车牌进行整体识别,包括以下步骤:
S1、建立卷积神经网络,其包括车牌定位网络和车牌识别;
S2、图像预处理:将采集到的图像调整为224*224分辨率;
S3、定位网络训练:将S2中处理过的图像输入到车牌定位网络中进行特征学习;
S4、图像后处理:把S3中定位后的车牌图像拉伸到224*224分辨率;
S5、识别网络训练:将S4中处理过的车牌图像输入到车牌识别网络中进行学习;
S6、神经网络测试:将测试图片输入到车牌定位网络和车牌识别网络中进行整体测试。
优选的,所述S3中将图像输入车牌定位网络的特征学习包括以下步骤:
S31、所述车牌定位网络具有16个卷积层、4个池化层、2个全连接层,层与层之间采用线性激活函数,其最后一层全连接层采用修正的线性激活函数,卷积层用于提取目标特征,全连接层用于预测坐标和类别概率;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥湛达智能科技有限公司,未经合肥湛达智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810368034.4/2.html,转载请声明来源钻瓜专利网。