[发明专利]一种基于Hadoop和监控视频流的车辆轨迹统计方法有效
申请号: | 201710464743.8 | 申请日: | 2017-06-19 |
公开(公告)号: | CN107316016B | 公开(公告)日: | 2020-06-23 |
发明(设计)人: | 陈名松;周奕捷;王伟光;董适;周信玲;李孜涵 | 申请(专利权)人: | 桂林电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/62;G06F16/182;G06F16/13;G06F16/71;G06F16/78 |
代理公司: | 桂林市华杰专利商标事务所有限责任公司 45112 | 代理人: | 周雯 |
地址: | 541004 广*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 hadoop 监控 视频 车辆 轨迹 统计 方法 | ||
本发明公开了一种基于Hadoop和监控视频流的车辆轨迹统计方法,该方法经过车辆检测算法、车牌识别算法、分布式视频处理和车辆轨迹统计,首先基于改进后的tiny‑yolo模型对视频帧进行车辆检测定位,结合HSV颜色模型、SVM分类器和文字定位技术从定位到的车辆区域中定位出车牌区域,通过改进后的LeNet‑5模型进行车牌字符识别,将车辆检测和车牌识别的处理算法编译为动态链接库,扩展MapReduce对视频类型格式的支持并在Map中通过JNI接口与动态链接库交互实现对监控视频流的分布式处理,通过Combiner、Partition、Reduce三个阶段对分析结果汇总,最终实现对车辆轨迹的统计和车辆帧的存储,该方法不仅车辆检测和车牌识别算法对复杂环境的适应性强,而且通过JNI接口与MapReduce交互方式在执行效率上更高效。
技术领域
本发明涉及云计算、计算机视觉技术领域,具体是一种基于Hadoop和监控视频流的车辆轨迹统计方法。
背景技术
在车辆网、智能交通迅速发展的环境下,交通监控摄像头的普及促使了视频数据量的指数式增长,如果不能充分挖掘视频数据中的有效信息,必然造成资源浪费,而在交通监控视频中,车辆信息作为主要信息在交通监管、智能交通的发展中发挥重要作用,如何从海量监控数据中充分挖掘车辆信息成为研究热点。而传统的集中式视频处理方式面对海量增长的监控视频数据存在处理能力不足和不可扩展的问题。
近年来,机器学习、深度学习技术因为对数据更好的分类能力在图像处理领域得到广泛研究,并通过大量的研究也证明了其相比于传统算法具有更好的分类效果,在复杂环境下具有更好的适应性和鲁棒性。而城市道路和高速公路都是动态变化的环境,易受天气、光照等环境影响,传统的处理算法往往难以适应天气和光线等条件的变化。
由于Hadoop平台底层机制是由Java实现,而图像处理往往属于计算密集型任务,通过Hadoop对图像的分布式处理,传统采用JavaCV、Hadoop Streaming的方式执行效率并不高效,且MapReduce不支持直接从HDFS读取视频数据,由于FFMPEG不支持HDFS 协议,传统采用FFMPEG将视频在本地切分为帧序列再上传到HDFS,往往会导致额外的I/O开销。
发明内容
本发明的目的在于克服现有技术的不足,而提供一种基于Hadoop和监控视频流的车辆轨迹统计方法,该系统结构简单,统计速度快,适应性好和准确度高,该统计方法计算量小,能够保证在光线充足环境下的执行效率,而且又能保证在复杂环境下车牌定位的准确性,在复杂环境下的适应性强、准确度高。
实现本发明目的的技术方案是:
一种基于Hadoop和监控视频流的车辆轨迹统计方法,具体包括如下步骤:
1)将各场景下的监控视频上传到HDFS,执行Hadoop任务;
2)Hadoop视频数据处理接口从HDFS上读取视频数据初始化Xuggler解码库,Xuggler解码库解析视频数据,得到一系列key,value交由Map处理,其中key为视频名_帧号,value为视频帧元数据;
3)Map函数对传入的key,value进行分析,具体是通过JNI与动态链接库交互实现对车辆检测定位和车牌识别,通过车辆检测算法从视频帧图像中定位到车辆区域,通过车牌识别算法对定位到的车辆区域进行车牌识别,未定位到车辆区域直接执行下一次key,value,将识别到车牌的帧图像以视频名_车牌号_时间戳形式进行命名写回到HDFS进行存储,Map输出key1,value1进入Combiner阶段,其中key1为车牌号,value1为封装了初始化统计次数1、时间戳以及视频名的容器对象;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学,未经桂林电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710464743.8/2.html,转载请声明来源钻瓜专利网。