[发明专利]一种地址事件数据流的车道线识别方法在审
申请号: | 202011572704.8 | 申请日: | 2020-12-24 |
公开(公告)号: | CN112668466A | 公开(公告)日: | 2021-04-16 |
发明(设计)人: | 张远辉;许璐钧 | 申请(专利权)人: | 中国计量大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/063 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 310018 浙江省*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 地址 事件 数据流 车道 识别 方法 | ||
本发明公开了一种针对地址事件AER(Address Event Representation)数据流的车道线识别方法,主要解决运动模糊、光照明暗环境下的车道线识别问题。实现的方案是:(1)使用事件仿真器将传统车道线图像帧转换成事件流数据(2)利用事件流的异步输出特性,对事件数据进行滤波的方式去噪。(3)用LIF(Le aky Integrate‑and‑Fire)编码方式得到事件帧。(4)对事件帧进行视角变换得到车道线的俯瞰图(5)采用直方图峰值快速定位车道位置和B样条曲线拟合车道。(6)利用车道跟踪策略来优化算法识别效率和鲁棒性,实现车道线快速识别及跟踪。本发明在保证高检测率的同时,减少车道线识别的每帧图像耗时。
技术领域
本发明涉及车道线识别技术领域,特别涉及一种地址事件数据流的车道线识别方法。
背景技术
车道线识别是目前高级驾驶辅助系统的关键技术之一,借助车载传感器来辅助驾驶员感知行车环境中存在的安全隐患,通过识别车道线分析出车辆位于行驶车道的相对位置,从而判断车辆是否存在车道偏离的危险,对可能存在的危险情况提前预警进一步。现有的车道线识别方法大多借助于传统的可见光相机,可以归纳为基于特征的车道线识别方法、基于模型的车道线识别方法、机器学习的图像分割方法。当车辆高速行驶时,容易造成运动模糊,而且这些包含大量冗余信息的连续图像帧会极大地浪费计算能力、内存空间和时间。
事件相机是一种仿神经形态的传感器,近年来受到研究人员广泛的关注,该传感器可对其感光阵列中的每一个像素点上的光强信息按时间先后进行连续检测,当相对变化超过阈值时,异步独立地输出该像素点的位置信息和变化属性,这种包含位置信息和变化属性的数据称为“事件”。传统相机以“帧”的形式捕捉和存储视频,不管亮度变化,在一个固定的周期内拍摄完整的帧画面,且每一帧图像都携带着来自所有像素的视觉信息。这种成像机制带来了大量的信息冗余,对带宽和存储提出了很大的挑战,而通过事件驱动的方式完全可以满足数据量小且高时间分辨率的要求。
基于地址事件表示的目标识别与跟踪在计算机视觉领域虽然已经取得研究进展,但在现实应用中,环境多变以及光照明暗等复杂情况给车道线识别带来很大困难。Maqueda等人通过实验证明在具有挑战性的光照条件和快速运动的情况下,事件数据在预测车辆的转向角度时仍具有鲁棒性。但是,该方法中使用的模型是传统图像训练的网络模型,未保留事件流数据的异步特性。Wang提出一种基于改进高斯斑点跟踪算法的定位检测器,用于事件目标跟踪和定位,可以实现参考正方向的识别。但是,当增加分类方向时容易发生识别错误。 Ramesh等人提出一种事件信息的(Distribution Aware Retinal Transform,DART)描述子,但该描述子在设计原理上未考虑旋转、尺度、视角的不变性。Li采用相关滤波器和卷积神经网络对事件流对象进行跟踪,但噪声事件对其影响较大。
发明内容
本发明的目的是针对上述现有方法的不足,提出一种针对地址事件数据流的车道线识别方法,可以在车辆高速行驶、环境的光线亮暗等影响下实现车道线识别,同时,本发明有效利用事件流数据的高时间分辨率、宽动态范围等特性,减少车道线数据的计算量和存储空间,提高了计算能力、车道线的检测率。
本发明的具体步骤包括如下:
(1)模拟生成地址事件数据流:
(1a)利用事件仿真器ESIM,将传统相机拍摄的车道线视频转换成事件流数据;
(1b)将四种不同场景下的车道线事件流数据文件组成地址事件的车道线数据库;
(2)对事件流数据进行滤波:
(2a)将一个事件定义为ei=(xi,yi,ti),假设在T时间段内,共发生事件数量为N,记为事件数N包括噪声引起的事件(无效事件 Nnoise)和真实发生的事件(有效事件Nvalid),用数学表达式写作
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国计量大学,未经中国计量大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011572704.8/2.html,转载请声明来源钻瓜专利网。