[发明专利]结合鱼眼相机实现车端4D毫米波雷达SLAM处理的方法、装置、处理器及其存储介质在审
申请号: | 202310318253.2 | 申请日: | 2023-03-29 |
公开(公告)号: | CN116359873A | 公开(公告)日: | 2023-06-30 |
发明(设计)人: | 赵映重;陆新飞;史颂华;薛旦 | 申请(专利权)人: | 上海几何伙伴智能驾驶有限公司 |
主分类号: | G01S7/41 | 分类号: | G01S7/41;G01S13/931;G06T7/73 |
代理公司: | 上海智信专利代理有限公司 31002 | 代理人: | 王洁;郑暄 |
地址: | 201206 上海市浦*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 结合 相机 实现 毫米波 雷达 slam 处理 方法 装置 处理器 及其 存储 介质 | ||
1.一种结合鱼眼相机实现车端4D毫米波雷达SLAM处理的方法,其特征在于,所述的方法包括以下步骤:
(1)智能驾驶车辆实时采集4D毫米波雷达的点云数据以及鱼眼相机的图像数据,并对二者的数据进行预处理;
(2)对经过预处理后的点云数据以及图像数据同时进行位姿估计处理,分别得到基于4D毫米波雷达的车辆当前位姿以及基于鱼眼图像的车辆当前位姿;
(3)将两个位姿进行EKF滤波处理,并得到滤波后更为精准的位姿;
(4)将车辆的精准位姿与4D毫米波雷达的点云关键帧进行变换处理,得到世界坐标系下的关键帧点云,并将数帧所述的关键帧点云进行拼接,得到点云地图;
(5)将上述得到的精准位姿以及点云地图作为SLAM进行输出。
2.根据权利要求1所述的结合鱼眼相机实现车端4D毫米波雷达SLAM处理的方法,其特征在于,所述的步骤(1)具体包括以下步骤:
(1.1)对采集到的各个4D毫米波雷达的数据进行时间同步,并按照先后顺序的融合方式拼接成车辆周围360度的点云;
(1.2)将4D毫米波雷达的点云数据和鱼眼相机的图像数据进行时间对齐同步,并按照4D毫米波雷达点云的时间进行对齐。
3.根据权利要求2所述的结合鱼眼相机实现车端4D毫米波雷达SLAM处理的方法,其特征在于,所述的步骤(2)进行基于4D毫米波雷达的位姿估计具体包括以下步骤:
(2.1.a)提取点云关键帧:根据车辆的运动信息,即距离上一次提取关键帧车辆运动的距离Δd或者旋转角度Δα,如果Δd或者Δα大于一定阈值θ则将当前的4D毫米波雷达的点云Pi{x0,x1…xm}添加为关键帧,记为Ki;
(2.2.a)点云关键帧间匹配:即将关键帧Ki和上一个关键帧Ki-1进行正态分布变换ndt匹配,将关键帧Ki的点云Pi{x0,x1…xm}和关键帧Ki-1的点云Pi-1{x0,x1...xn}划分为一个个体素单元格voxel,估计出每个体素单元格内所有点服从的正态分布pvoxel~N(μ,σ),其中,μ为正态分布的均值,σ为正态分布的协方差;并求解出一个变换Ti(Ri,ti)使得关键帧Ki的点经过变换落到关键帧Ki-1点所在的体素单元格voxel的概率值pvoxel最大,求解方式如下:
最后得到4D毫米波雷达帧间的相对平移变换和相对旋转变换
(2.3.a)利用以下公式计算基于4D毫米波雷达的车辆当前位姿
其中,为上一帧车辆的位姿估计。
4.根据权利要求3所述的结合鱼眼相机实现车端4D毫米波雷达SLAM处理的方法,其特征在于,所述的步骤(2)进行基于鱼眼图像的位姿估计具体包括以下步骤:
(2.1.b)提取视觉特征:在每一帧鱼眼图像上提取视觉ORB特征,并将当前时刻图像帧提取的特征记为Fi,上一时刻图像帧提取到的特征记为Fi-1,记鱼眼图像当前帧的位姿为上一时刻图像帧的位姿为
(2.2.b)视觉特征匹配:根据特征Fi和Fi-1之间的汉明距离找到两帧之间的对应匹配点,并利用PnP计算出当前时刻帧相对于上一时刻帧的相对平移变换和相对旋转变换
(2.3.b)利用以下公式计算基于鱼眼图像的得到的当前位姿
并从鱼眼图像位姿中取出旋转部分得到
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海几何伙伴智能驾驶有限公司,未经上海几何伙伴智能驾驶有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310318253.2/1.html,转载请声明来源钻瓜专利网。