[发明专利]一种车载视觉系统场景视深确定方法有效
申请号: | 201810917032.6 | 申请日: | 2018-08-13 |
公开(公告)号: | CN109299656B | 公开(公告)日: | 2021-10-22 |
发明(设计)人: | 缪其恒;吴长伟;苏志杰;王江明;许炜 | 申请(专利权)人: | 浙江零跑科技股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T7/521;G06T7/80 |
代理公司: | 杭州杭诚专利事务所有限公司 33109 | 代理人: | 尉伟敏;王金兰 |
地址: | 310051 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 车载 视觉 系统 场景 确定 方法 | ||
本发明公开了一种车载视觉系统场景视深确定方法,所述车载视觉系统包括深度视深卷积神经网络模块,其特征在于,所述方法包括:S1,采集车载视觉系统的参数配置信息和图像信息;S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐。采用本发明,增强测距系统的鲁棒性。
技术领域
本发明涉及车载视觉系统,特别涉及一种车载视觉系统场景视深确定方法。
背景技术
智能化是如今汽车行业发展的重要趋势之一,视觉系统在车辆主动安全领域应用日益广泛。单双目前视、后视以及360度环视系统已经成为了现有高级辅助驾驶系统的主流感知器件。随着人工智能技术的发展以及嵌入式平台运算能力的提升,辅助驾驶系统的自动化等级日益提升。视觉感知系统的主要作用包括:道路交通场景目标及可行驶区域识别、场景视深估算以及车辆自身状态估计等。现有检测方法由于受人工设计的图像特征描述算子限制,其应用场景以及效果均具有一定的局限性。
发明内容
本发明的目的提供一种车载视觉系统场景视深确定方法,节省了成本,并且提高。
为解决现有技术存在的问题,本发明提供一种车载视觉系统场景视深确定方法,该方法包括:
S1,采集车载视觉系统的参数配置信息和图像信息;
S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;
S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;
S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐:
d′(x,y)=R(θ)d(x,y)
其中,d′(x,y)为补偿后场景视深输出,d(x,y)为网络输出,R(θ)为旋转坐标变换矩阵。
优选的,还包括深度视深卷积神经网络模块进行离线训练的步骤,所述步骤包括:
采集各类道路驾驶场景数据,提取时序离散训练样本集,并通过激光雷达点云输出数据对训练样本集进行标定;
根据相机标定参数以及激光雷达系统标定参数,将两者坐标系对齐后,利用小孔成像原理将点云数据坐标变换至图像坐标系内,并通过双线性插值方法补全视深图无有效数据部分来生成场景视深mask;
根据采集设备的配置,离线生成相应视深图标签。
利用视频数据时间戳信息与RT设备高频采集信号匹配,积分采集周期内的X,Y,Z三个坐标轴对应的速度及角速度信息,得到神经网络对应的输出标签参考数据,所述输出标签参考数据为六自由度车辆与转动信息。
优选的,所述深度视深卷积神经网络模块离线训练步骤采用基于迷你批量方式额梯度下降方法,所述方法的每个循环内,基于反向地推对损失函数求最优解来优化网络权重参数,直至设定的循环迭代次数完成,所述损失函数Loss计算公式为:
其中,d(x,y)为输出视深图的每个像素(x,y)对应的视深,dT(x,y)为训练样本视深标签,W,H为图像宽高。
优选的,还包括对深度视深卷积神经网络模块设备移植的步骤,所述深度视深卷积神经网络模块设备移植的步骤包括:
对离线训练步骤所生成的深度卷积神经网络进行基于所应用的嵌入式平台运算特性进行压缩操作,包括稀疏化与量化;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江零跑科技股份有限公司,未经浙江零跑科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810917032.6/2.html,转载请声明来源钻瓜专利网。