[发明专利]目标障碍物位置的获取方法和系统有效
申请号: | 201911181539.0 | 申请日: | 2019-11-27 |
公开(公告)号: | CN110864670B | 公开(公告)日: | 2022-02-08 |
发明(设计)人: | 陈安;江志浩;崔迪潇;周棉炜;龚伟林 | 申请(专利权)人: | 苏州智加科技有限公司 |
主分类号: | G01C11/00 | 分类号: | G01C11/00;G06T7/70 |
代理公司: | 北京天盾知识产权代理有限公司 11421 | 代理人: | 张彩珍 |
地址: | 215100 江苏省苏州市相*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 障碍物 位置 获取 方法 系统 | ||
本发明提供一种目标障碍物位置的获取方法和系统,该获取方法包括以下步骤:获取双目相机的第一图像和第二图像;根据第一图像获取目标障碍物信息;根据目标障碍物信息确认目标障碍物在第二图像中的搜索区域;在该搜索区域中搜索目标障碍物确定目标障碍物的精确视差值;根据目标障碍物的精确视差值及第二图像中的矩行框中心点的坐标值获取目标障碍物的位置信息;根据当前目标障碍物的位置信息和精确视差值更新目标障碍物的位置信息。本发明对图像中的特定区域来计算目标障碍物的视差,由于无需全图计算,只考虑了感兴趣的特定区域,计算量小且在高分辨率图像上也能实时处理。
技术领域
本发明属于智能交通领域技术领域,具体涉及一种目标障碍物位置的获取方法和系统。
背景技术
近一个多世纪来,汽车的出现取代了传统交通运输方式,使得人们的生活更为便捷。近些年来,随着科技的发展,尤其是智能计算的飞速发展,自动驾驶汽车技术研究成为各行业聚焦的热点。麦肯锡发布的“决定未来经济的12项前沿技术”报告探讨了12项前沿技术对未来经济、社会的影响程度,分析估测了2025年12项技术各自的经济与社会影响力,其中自动驾驶汽车技术排在第6位,其2025年影响力估测为:经济效益每年约0.2-1.9万亿美元,社会效益每年可挽回3-15万个生命。
通常,自动驾驶汽车的系统一般分为三个模块:一是感知模块,相当于人的眼睛,通过摄像头、毫米波雷达、激光雷达等传感器实时采集周边环境状态;二是决策模块,相当于人的大脑,根据环境状态计算出最优的驾驶决策规划;三是执行模块,相当于人的手与脚,用于执行决策命令,进行油门、刹车、转向等相应的驾驶操作。
其中,感知模块是自动驾驶系统的一个重要模块,没有可靠的感知模块,就无法实现安全的自动驾驶系统。而在感知模块中,双目相机是一个重要的设备,双目相机不仅具备单目的功能,还能提供障碍物与车辆的距离信息。双目相机已经逐渐成为自动驾驶系统中一个不可或缺的传感器。实时、可靠、稳定的距离信息是感知模块的一个重要保证,没有准确和平滑的距离信息,感知模块就无法稳定输出可靠的障碍物距离、速度等信息。
双目测距方法是一种通过计算双目相机采集的左图和右图(该左图和右图是指在双目相机某一时刻拍摄得到的两张图像)的位置差异的视觉测距算法。
传统的双目视测距方法首先需要计算双目视差图,然后根据双目视差图再计算图片上点的3D坐标。由于双目视差图包括以下几个步骤:计算代价、代价聚合、计算视差图、提精视差图这几个步骤。而这种方法受限于匹配效果,对于遮挡区域处理效果不佳;此外,当双目相机应用于高分辨率的图像时,其处理延时会迅速增加,无法实时生成视差图。
近年来随着深度学习技术的发展,传统的双目测距算法也得到了快速的发展,目前发展了很多基于深度学习的视觉算法,但是目前基于深度学习的双目测距算法并没有超出传统双目测距算法的流程,只是将其中一些步骤做了部分改进;由于视差图的真值难以获得,因此深度学习的双目测距模型中缺乏准确的训练数据,许多训练模型容易过拟合到特定的相机,泛化性也较弱;此外,由于深度学习的双目测距模型的网络层数较高,因此模型的复杂度较高,且实时性也较差,仍然无法应用到实际的确认目标障碍物位置的过程当中。
综上,现有技术的认目标障碍物位置的获取方法存在如下几个技术问题:
1.获得的视差不够准确;
2.计算方法复杂,计算效率低;
3.无法在高分辨率的图像上实现实时测距;
4.现有技术处理的图像都是处理的单帧信息,而未考虑连续帧信息,最终得到的目标轨迹不够平滑。
发明内容
本发明提供一种目标障碍物位置的获取方法和系统,以解决现有技术中的至少一个技术问题。
第一方面,本发明实施例提供一种目标障碍物位置的获取方法,该获取方法包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州智加科技有限公司,未经苏州智加科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911181539.0/2.html,转载请声明来源钻瓜专利网。