[发明专利]车辆检测的方法、装置及计算机可读存储介质有效
| 申请号: | 201910085416.0 | 申请日: | 2019-01-29 |
| 公开(公告)号: | CN109829421B | 公开(公告)日: | 2020-09-08 |
| 发明(设计)人: | 王殿伟;何衍辉;宋鸽 | 申请(专利权)人: | 西安邮电大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06F16/58 |
| 代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 周静 |
| 地址: | 710121 陕西*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 车辆 检测 方法 装置 计算机 可读 存储 介质 | ||
本发明公开了一种车辆检测的方法、装置及计算机可读存储介质,属于无人驾驶车辆的技术领域。该方法包括:通过获取的至少一个第一全景图像样本以及每个第一全景图像样本中至少一个第一车辆图像的标签、第一网络以及第二网络可以训练得到第二车辆检测模型。该第二车辆检测模型用于对目标全景图像样本进行检测,得到目标全景图像样本中至少一个待检测车辆图像的标签,该至少一个待检测车辆图像中包含至少一个发生尺度变化的待检测车辆图像。本发明通过第一网络和第二网络的联合训练出了第二车辆检测模型,并通过第二车辆检测模型可以准确地检测出该目标全景图像样本中至少一个发生尺度变化的待检测车辆图像的标签,提高车辆检测的精度。
技术领域
本发明涉及无人驾驶车辆的技术领域,特别涉及一种车辆检测的方法、装置及计算机可读存储介质。
背景技术
无人驾驶车辆是一种新型的智能车辆,通常通过安装的摄像机采集无人驾驶车辆的周围环境中的图像,并由CPU通过车辆检测模型(Central Processing Unit,中央处理单元)对采集的图像进行处理,进而控制无人驾驶车辆进行全自动驾驶,达到车辆无人驾驶的目的。
目前的车辆检测模型是基于Faster R-CNN(Faster Regions withConvolutional Neural Network,快速深度卷积神经网络)训练得到。然而,当无人驾驶车辆的周围环境中的车辆的运行速度较快时,摄像机采集的图像中的车辆图像的尺度容易发生变化,而基于Faster R-CNN训练得到的车辆检测模型无法从发生尺度变化的车辆图像中准确地检测出车辆图像的标签,造成车辆检测的精度较低。
发明内容
为了解决现有技术的问题,本发明实施例提供了一种车辆检测的方法、装置及计算机可读存储介质。所述技术方案如下:
第一方面,提供了一种车辆检测的方法,所述方法包括:
获取至少一个第一全景图像样本,得到第一全景图像数据集,所述第一全景图像样本为通过所述终端上的全景摄像机拍摄得到的图像,所述第一全景图像样本中包括至少一个第一车辆图像;
确定每个第一全景图像样本中至少一个第一车辆图像的标签,所述标签包括所述至少一个第一车辆图像的类别信息和位置信息,所述至少一个第一车辆图像的位置信息为用于标注所述至少一个第一车辆图像的至少一个矩形框的位置信息;
通过所述每个第一全景图像样本,以及所述每个第一全景图像样本中至少一个第一车辆图像的标签,对第一网络进行训练,得到第一车辆检测模型;
通过所述每个第一全景图像样本、所述每个第一全景图像样本中至少一个第一车辆图像的标签以及所述第一车辆检测模型,对第二网络进行训练,得到第二车辆检测模型,所述第二网络用于对所述每个第一全景图像样本中至少一个第一车辆图像进行尺度变化,所述尺度变化包括缩放变化、倾斜变化和/或裁剪变化,所述第二网络的第一个卷积层与所述第一网络的全连接层连接;
其中,所述第二车辆检测模型用于对目标全景图像样本进行检测,得到所述目标全景图像样本中至少一个待检测车辆图像的标签,所述至少一个待检测车辆图像中包含至少一个发生尺度变化的待检测车辆图像,所述目标全景图像样本为对无人驾驶车辆的周围环境进行拍摄得到的图像样本。
可选地,所述第二网络包括第一子网络和第二子网络,所述第一子网络的最后一个池化层与所述第二子网络的第一个卷积层连接;
所述通过所述每个第一全景图像样本、所述每个第一全景图像样本中至少一个第一车辆图像的标签以及所述第一车辆检测模型,对第二网络进行训练,得到第二车辆检测模型,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安邮电大学,未经西安邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910085416.0/2.html,转载请声明来源钻瓜专利网。





