[发明专利]一种基于深度学习采用单线激光雷达的车辆检测方法有效
| 申请号: | 201910206463.6 | 申请日: | 2019-03-19 |
| 公开(公告)号: | CN110097047B | 公开(公告)日: | 2021-10-08 |
| 发明(设计)人: | 瞿三清;卢凡;董金虎;陈广;许仲聪;陈凯 | 申请(专利权)人: | 同济大学 |
| 主分类号: | G06K9/32 | 分类号: | G06K9/32;G06K9/00;G06K9/20;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 杨宏泰 |
| 地址: | 200092 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 采用 单线 激光雷达 车辆 检测 方法 | ||
1.一种基于深度学习采用单线激光雷达的车辆检测方法,其特征在于,包括以下步骤:
1)通过单线激光雷达采集车辆的特征点云数据,并进行预处理得到二进制图像,具体包括以下步骤:
11)将采集到的特征点云数据以单线激光雷达为坐标原点的极坐标系转换为全局统一的笛卡尔坐标系,转换表达式为:
(xj0,yj0)=(xj1,yj1)R+t
其中,(rj,φj)为原始点云数据中点j的位置坐标,(xj1,yj1)为点j转换为以激光雷达为坐标原点的笛卡尔坐标系中的位置坐标,(xj0,yj0)为全局统一笛卡尔坐标系中的坐标,R为转换旋转矩阵,t为转换平移向量;
12)对坐标转换后的点云数据栅格网格化,转换为二进制图像;
2)对二进制图像中进行标注,获取其中车辆所在的位置,生成训练数据集,并采用聚类方法生成感兴趣区域,标注内容包括图像的像素级标注和目标车辆的边界框标注,所述的聚类方法包括密度聚类、均值聚类和Mean-Shift聚类;
3)构建适用于目标车辆检测的深度卷积神经网络及其损失函数,所述的深度卷积神经网络为Faster R-CNN卷积神经网络,其以设定尺寸的二进制图像作为输入,以与输入二进制图像上对应目标车辆的位置和置信度为输出,深度卷积神经网络的损失函数的表达式为:
Loss=Lcls(p,u)+λ[u=1]Lloc(tu,v)
Lcls(p,u)=-log(p)
x=(tu-v)
其中,Lcls(p,u)为目标分类检测损失子函数,Lloc(tu,v)为距离损失子函数,p为对于目标类别的预测因子,u为对应类别的实际因子,λ为损失函数的加权权重,当u=1时表示感兴趣区域是目标车辆,当u=0时表示感兴趣区域是背景,tu为预测的位置因子,v为训练样本中真实的位置因子,x为预测值与真实值的偏差;
4)对感兴趣区域进行增广后输入深度卷积神经网络中,并根据输出值与训练真值的差异对卷积神经网络中的参数进行训练更新,得到最优的网络参数,并根据训练好的深度卷积神经网络进行车辆位置检测,获取车辆位置;
对感兴趣区域进行增广具体为:
将感兴趣区域图像进行随机水平翻转、裁剪并统一缩放至固定的尺寸,并且标注数据也进行相应的翻转、裁剪和缩放;
训练深度卷积神经网络具体为:
依据损失函数,利用梯度下降反向传播方法,对深度卷积神经网络的参数进行迭代更新,将迭代至最大设定次数后得到的网络参数作为最优的网络参数,完成训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910206463.6/1.html,转载请声明来源钻瓜专利网。





