[发明专利]基于LSTM-CNN组合模型的车牌定位方法及装置在审
申请号: | 201810783343.8 | 申请日: | 2018-07-17 |
公开(公告)号: | CN109034152A | 公开(公告)日: | 2018-12-18 |
发明(设计)人: | 程良伦;陈仿雄 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/46;G06N3/04 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 罗满 |
地址: | 510006 广东省*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 车牌定位 记忆网络 卷积神经网络 垂直坐标 内部状态 组合模型 锚点 待处理图像 上下文信息 车辆图像 处理图像 复杂环境 损失函数 特征提取 无缝连接 映射 预测 更新 预设 垂直 下车 图像 提议 探索 | ||
1.一种基于LSTM-CNN组合模型的车牌定位方法,其特征在于,包括:
将获取的车辆图像转化为预设大小的待处理图像;
利用卷积神经网络模型,对所述待处理图像进行特征提取,获取最后一层卷积层的卷积层特征;
利用锚点机制将所述卷积层特征映射到所述待处理图像,获取每个候选提议框各自对应的预设数量的垂直锚点的区域分数和预测垂直坐标;其中,所述区域分数为车牌区域分数或非车牌区域分数,所述候选提议框的宽度为预设像素值;
利用双向长短期记忆网络更新所述卷积层特征的内部状态;
根据所述区域分数、所述预测垂直坐标和更新后的卷积层特征的内部状态,利用多任务损失函数确定所述车辆图像的车牌定位结果。
2.根据权利要求1所述的基于LSTM-CNN组合模型的车牌定位方法,其特征在于,所述利用卷积神经网络模型,对所述待处理图像进行特征提取,获取最后一层卷积层的卷积层特征,包括:
利用包含13层卷积层和4个池化层的所述卷积神经网络模型,对所述待处理图像进行特征提取,获取所述卷积层特征;其中,所述卷积神经网络模型采用3*3卷积核,步长为1,填充为1;所述卷积层特征的总步长和感受野分别为16个像素和228个像素。
3.根据权利要求2所述的基于LSTM-CNN组合模型的车牌定位方法,其特征在于,所述利用锚点机制将所述卷积层特征映射到所述待处理图像,获取每个候选提议框各自对应的预设数量的垂直锚点的区域分数和预测垂直坐标,包括:
利用滑动窗口密集通过所述卷积层特征的每个空间位置,获取所述候选提议框;其中,所述滑动窗口为3*3窗口,每个所述候选提议框均由各自对应的预设数量的区域分数大于预设数值的垂直锚点组成,每个所述候选提议框各自对应的预设数量的垂直锚点具有相同的水平位置且固定宽度均为16的像素;
将所述卷积层特征映射到所述待处理图像,并根据每个所述候选提议框的高度和纵轴中心,利用vh=log(h/ha)、和获取每个候选提议框各自对应的预设数量的垂直锚点的预测垂直坐标;其中,V={vc,vh}为所述垂直锚点的预测垂直坐标,为所述垂直锚点的实际垂直坐标,cy和h为所述垂直锚点的初始预测垂直坐标,和h*为所述垂直锚点的初始实际垂直坐标,和ha为所述垂直锚点对应的候选提议框的纵轴中心和高度。
4.根据权利要求3所述的基于LSTM-CNN组合模型的车牌定位方法,其特征在于,所述利用双向长短期记忆网络更新所述卷积层特征的内部状态,包括:
将所述滑动窗口在所述卷积层特征上从左到右密集滑动,获取每个所述滑动窗口的卷积特征;
利用Ht=φ(Ht-1,Xt)t=1,2,...,w,在所述双向长短期记忆网络的隐含层中循环更新所述卷积层特征的内部状态;其中,Ht为所述内部状态,Xt为第t个所述滑动窗口的卷积特征,w为所述卷积层特征的宽度,φ为预设非线性函数。
5.根据权利要求1至4任一项所述的基于LSTM-CNN组合模型的车牌定位方法,其特征在于,所述根据所述区域分数、所述预测垂直坐标和更新后的卷积层特征的内部状态,利用多任务损失函数确定所述车辆图像的车牌定位结果,包括:
根据所述区域分数、所述预测垂直坐标和更新后的卷积层特征的内部状态,利用确定所述车辆图像的车牌定位结果;其中,L为最小化目标函数,si为垂直锚点i作为实际车牌区域的预测概率,为垂直锚点i作为实际车牌区域的真实概率,j为车牌区域分数大于预设数值的垂直锚点的索引,vj为垂直锚点j的预测垂直坐标,为垂直锚点j的实际垂直坐标,为预设的计算车牌区域分数损失和非车牌区域分数损失的损失函数,为回归损失,λ1和λ2均为预设的损失权重,Ns和Nv分别为和计算的垂直锚点总数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810783343.8/1.html,转载请声明来源钻瓜专利网。