[发明专利]特征地图构建方法、视觉定位方法及对应装置有效
申请号: | 201810738532.3 | 申请日: | 2018-07-06 |
公开(公告)号: | CN109059941B | 公开(公告)日: | 2019-11-29 |
发明(设计)人: | 杜艳维 | 申请(专利权)人: | 禾多科技(北京)有限公司 |
主分类号: | G01C21/32 | 分类号: | G01C21/32;G01C21/34 |
代理公司: | 11369 北京远大卓悦知识产权代理事务所(普通合伙) | 代理人: | 汤小东<国际申请>=<国际公布>=<进入 |
地址: | 100000 北京市海*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 构建 特征地图 特征点 特征跟踪 图像 组合导航设备 对应装置 视觉定位 位姿 车辆定位技术 摄像头采集 摄像头 车辆定位 位姿信息 硬件成本 三角化 多帧 采集 跟踪 | ||
1.一种特征地图构建方法,其特征在于,包括:
获得安装在第一车辆上的第一摄像头采集的多帧第一图像;
利用安装在所述第一车辆上的高精度组合导航设备采集的第一位姿信息确定每帧第一图像的位姿;
从每帧第一图像上提取出多个2D特征点,并基于每个2D特征点与其他帧的第一图像上的2D特征点的对应关系构建出多个特征跟踪器,其中,每个特征跟踪器包括具有对应关系的至少一个2D特征点;
基于每个特征跟踪器中的2D特征点在对应的第一图像上的位置,以及对应的第一图像的位姿进行三角化计算,获得与该特征跟踪器对应的一个3D特征点;
基于与所述多个特征跟踪器对应的多个3D特征点构建用于计算第二车辆的位姿的特征地图;
其中,所述多帧第一图像为M帧,所述从每帧第一图像上提取出多个2D特征点,并基于每个2D特征点与其他帧的第一图像上的2D特征点的对应关系构建出多个特征跟踪器,包括:
取i为1至M,提取第i帧第一图像上的N个2D特征点;
若i=1,对每个2D特征点创建一个对应的特征跟踪器;
若i>1,取j为1至N,判断第i-1帧第一图像中是否存在与第j个2D特征点匹配的2D特征点,若存在,将所述第j个2D特征点加入到所述匹配的2D特征点对应的特征跟踪器,若不存在,创建与所述第j个2D特征点对应的特征跟踪器;
在第M帧第一图像处理完成后,构建出所述多个特征跟踪器。
2.根据权利要求1所述的特征地图构建方法,其特征在于,所述利用安装在所述第一车辆上的高精度组合导航设备采集的第一位姿信息确定每帧第一图像的位姿,包括:
获得所述高精度组合导航设备与所述第一摄像头之间的相对位姿;
获得所述高精度组合导航设备采集的多帧GPS位姿;
将所述多帧GPS位姿与所述多帧第一图像的采集时间进行对齐;
基于与每帧第一图像对应的一帧GPS位姿以及所述相对位姿进行姿态变换,获得该帧第一图像的位姿。
3.根据权利要求1和2中任一项所述的特征地图构建方法,其特征在于,每个3D特征点均对应一帧参考帧,所述参考帧为该3D特征点对应的特征跟踪器中的第一个2D特征点对应的第一图像,所述基于与所述多个特征跟踪器对应的多个3D特征点构建用于计算第二车辆的位姿的特征地图,包括:
基于与所述多个特征跟踪器对应的多个3D特征点以及与所述多个3D特征点对应的多帧参考帧构建用于计算所述第二车辆的位姿的所述特征地图。
4.一种视觉定位方法,其特征在于,包括:
获得安装在第二车辆上的第二摄像头采集的第二图像,并从所述第二图像中提取出多个2D特征点;
利用安装在所述第二车辆上的低精度组合导航设备采集的第二位姿信息确定所述第二车辆的粗略位置;
获得利用权利要求1-3中任一项所述的方法构建出的特征地图,并确定所述特征地图的多个3D特征点中与所述粗略位置邻近的多个邻近3D特征点;
从所述多个2D特征点以及所述多个邻近3D特征点中确定出多个匹配的3D-2D特征点对;
基于所述多个匹配的3D-2D特征点计算获得所述第二图像的位姿,进而确定所述第二车辆的位姿。
5.根据权利要求4所述的视觉定位方法,其特征在于,所述特征地图利用权利要求3所述的方法构建,所述确定所述特征地图的多个3D特征点中与所述粗略位置邻近的多个邻近3D特征点,包括:
获得利用所述特征地图中的多帧参考帧构建的数据搜索结构;
基于所述数据搜索结构确定与所述粗略位置邻近的多帧邻近参考帧;
从所述多帧邻近参考帧对应的3D特征点中确定出所述多个邻近3D特征点。
6.根据权利要求5所述的视觉定位方法,其特征在于,所述数据搜索结构为kd-tree,所述kd-tree的每个节点对应一帧参考帧的位置。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于禾多科技(北京)有限公司,未经禾多科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810738532.3/1.html,转载请声明来源钻瓜专利网。