[发明专利]基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法及系统有效
申请号: | 201710992090.0 | 申请日: | 2017-10-23 |
公开(公告)号: | CN107766821B | 公开(公告)日: | 2020-08-04 |
发明(设计)人: | 车少帅 | 申请(专利权)人: | 江苏鸿信系统集成有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/40;G06K9/46;G06K9/66;G06T7/277 |
代理公司: | 南京天华专利代理有限责任公司 32218 | 代理人: | 许轲;夏平 |
地址: | 210029 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 卡尔 滤波 深度 学习 视频 时段 车辆 检测 跟踪 方法 系统 | ||
1.一种基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法,其特征在于包括以下步骤:
步骤1:采用深度学习的方法,建立夜间、白天车辆图像样本库,采用CAFFE框架,离线训练深度学习CNN模型,并建立车辆分类器,所述车辆分类器包括白天车辆分类器、夜间红外分类器;
步骤2:从视频源中采集一帧图像,判断当前时间是白天还是夜间,白天进入步骤3,夜间进入步骤4;
步骤3:白天,使用动静目标检测方法获得当前帧的运动、静止目标,使用白天车辆分类器分出车辆目标,即使用背景差分方法检测运动区域,遍历非运动区域使用白天车辆分类器进行检测静止目标;
步骤4:夜间,使用基于车灯方法检测出车灯位置,使用夜间红外分类器检测车辆位置;
步骤5:判断是否为视频源的第一帧;如果是第一帧,则为当前车辆目标建立卡尔曼滤波器,对卡尔曼滤波器进行初始化,否则进入下一帧,回到步骤2;
步骤6:获取步骤3或者步骤4在当前帧图中车辆目标的检测位置数据;使用上一帧每一个车辆目标的卡尔曼滤波器预测该目标在当前帧的位置;
步骤7:综合对比检测位置与预测位置,如果相同,则目标前后帧连接;如果预测位置没检测到目标,则使用车辆分类器判断车辆是否停止;如果检测位置不在预测位置,则判断是否是新产生,从而综合更新当前帧图数据;
步骤8:更新全部车辆目标状态,更新车辆目标的卡尔曼滤波器的参数,将上一帧图的车辆目标与当前帧图的车辆目标的位置连接起来,再进入下一帧,回到步骤2,从而获取车辆目标的跟踪路径。
2.根据权利要求1所述的一种基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法,其特征在于:所述的步骤1包括以下步骤:
(a)获取白天车辆截图、白天背景截图各一万张,建立白天车辆分类器的训练库、验证库以及图像路径标签TXT;获取夜间车辆截图、夜间背景截图各一万张,建立夜间红外分类器的训练库、验证库以及图像路径标签TXT;
(b)选择CAFFE深度学习框架,部署运行,依次将白天、夜间的训练库图像转化成LMDB格式;
(c)选择其GoogLeNet的CNN模型,并配置文件白天与夜间的train_val_googlenet.prototxt的参数:训练LMDB路径、验证LMDB路径以及输出类型数目;
(d)配置白天与夜间的solver_googlenet.prototxt文件参数,执行训练命令,进行训练。
3.根据权利要求1所述的一种基于卡尔曼滤波与深度学习的视频中全时段车辆检测跟踪方法,其特征在于:所述的步骤3包括以下步骤:
(a)首先计算出监控场景的当前时刻的图像背景模型,采集当前帧的前N帧视频图像序列,将视频图像序列转换为灰度图,进行图像滤波,滤除噪声;提取该N帧图的每一点的灰度值,计算N帧图上每个点的灰度值的平均值,将每个点的灰度值的平均值作为与当前帧图相对应的图像背景模型的像素点,从而得到当前帧的背景模型,其中N为自然数;
(b)将视频图像序列的当前帧图与其相对应的当前图像背景模型进行图像差分,得到前景灰度图;
(c)将前景灰度图分为M个相同大小的子区域,M为自然数,分别计算每个子区域的全部像素值的平均值E、均方值P和标准差Q,并计算出每个子区域的灰度阈值T,公式如下:T=a*E+b*P+c*Q,其中a,b,c均为自由参数,根据每个子区域灰度阈值T对每个子区域进行全局二值化处理,得到前景二值图;
(d)采用区域生长算法标记前景二值图中全部连通域,获得当前帧图中的全部目标,使用白天车辆分类器从检测的全部目标中分类出车辆目标,从而获得当前帧图中的车辆目标数据;
(e)对其他非运动区域,使用白天车辆分类器进行遍历,从而检测出静止的车辆目标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏鸿信系统集成有限公司,未经江苏鸿信系统集成有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710992090.0/1.html,转载请声明来源钻瓜专利网。