[发明专利]一种基于改进YOLOv2的无人驾驶中行人检测方法有效
申请号: | 201810675999.8 | 申请日: | 2018-06-27 |
公开(公告)号: | CN108985186B | 公开(公告)日: | 2022-03-01 |
发明(设计)人: | 石英;罗佳齐;李振威 | 申请(专利权)人: | 武汉理工大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/762;G06V10/764;G06V10/82;G06K9/62 |
代理公司: | 湖北武汉永嘉专利代理有限公司 42102 | 代理人: | 许美红 |
地址: | 430070 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 改进 yolov2 无人驾驶 行人 检测 方法 | ||
1.一种基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,该方法包括以下步骤:
S1、获取用于行人检测的KITTI数据集,采用YOLOv2网络对数据集进行训练,将YOLOv2网络的输出设置为行人和非行人两类,对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类测度设置为IOU测度;训练时,通过对数据集进行扩充,并采用OHEM方法从含有大量非行人的候选样本的数据集中选择行人样本进行训练,得到训练模型;
S2、通过车载摄像头获取捕捉视频,从视频中提取每一帧的待检测图像作为改进的YOLOv2网络的输入,并将训练模型导入改进的YOLOv2网络,初步检测出的行人的位置信息和概率,得到包含行人初步检测结果的建议框;最后对其中的行人目标区域的建议框进行筛除,利用非极大值抑制得到最终行人检测框;
步骤S1中通过KITTI数据集对YOLOv2网络结构进行训练的方法具体为:
S11、针对行人检测改进原始YOLOv2网络结构:对原始的YOLOv2网络,将其多类输出修改为行人和非行人两类输出,网络每个候选框同时对应两类输出;
S12、对行人标定框的长和宽进行聚类分析:对KITTI数据集的行人标定框长和宽进行kmeans聚类,并将聚类结果作为先验;将聚类测度设置为IOU测度,IOU测度为聚类中心与各个标定框的重叠区域占聚类中心和标定框所占区域之和的比值,并根据平均IOU选择设定数量的聚类中心作为初始候选框;
S13、通过数据扩充和OHEM策略训练修改后的YOLOv2网络:在训练时,通过翻转图片将数据集扩充一倍以增加样本数量,并且在原始YOLOv2网络的基础上采用OHEM方法,对非行人的候选样本,按改进的YOLOv2网络中间层输出的样本属于背景的概率大小排序,从中选取行人样本进行训练,得到训练模型;
步骤S2中对车载摄像头捕捉视频用改进的YOLOv2网络进行行人检测的方法具体为:
S21、通过改进的YOLOv2初步检测行人:首先通过车载摄像头捕捉视频,将视频中的每一帧作为YOLOv2网络的输入,并将训练模型导入YOLOv2网络并运行网络,初步检测出的行人的位置信息和概率;
S22、对部分不可能包含行人的目标区域建议框进行筛除:根据行人目标的特殊性,依据区域建议框的长宽比α和区域面积s进行筛选;对标定框长宽比和区域面积使用kmeans算法进行聚类,再根据选取的聚类中心对检测出的候选框进行筛选;
S23、非极大值抑制得到最终行人检测框:对于步骤S22中筛选过后的行人检测框进行非极大值抑制,目标检测中的非极大值抑制从候选建议框中优选出最终位置框。
2.根据权利要求1所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S1中进行数据集扩充的方法为:对KITTI数据集中的图片,通过翻转图片将数据集扩充一倍。
3.根据权利要求1所述的基于改进YOLOv2的无人驾驶中行人检测方法,其特征在于,步骤S23中进行非极大值抑制的方法具体为:
(1)对所有筛选之后的候选建议框,依据对应的置信度得分进行排序,选取得分最高的候选建议框;
(2)遍历剩余的建议框,若和所选取得分最高的候选建议框的重叠率大于设定阈值,则删除对应建议框;
(3)从剩余未处理的建议框中重新选取得分最高的建议框,重复步骤(2),直至所有建议框均被处理完成,输出最终得到的行人检测框。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉理工大学,未经武汉理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810675999.8/1.html,转载请声明来源钻瓜专利网。