[发明专利]三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品有效
申请号: | 201780002708.2 | 申请日: | 2017-12-29 |
公开(公告)号: | CN108401461B | 公开(公告)日: | 2021-06-04 |
发明(设计)人: | 高军强;廉士国;林义闽 | 申请(专利权)人: | 达闼机器人有限公司 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T7/80 |
代理公司: | 北京新知远方知识产权代理事务所(普通合伙) 11397 | 代理人: | 马军芳;张艳 |
地址: | 201111 上海市*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维 方法 装置 系统 云端 平台 电子设备 计算机 程序 产品 | ||
三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品,所述方法包括获取视觉定位装置的位姿信息,并标定视觉定位装置与单线激光雷达之间的位姿关系,根据视觉定位装置的位姿信息和位姿关系,计算出单线激光雷达的位姿信息,根据单线激光雷达的位姿信息,将单线激光雷达在不同位置采集的激光三维点云,映射到同一基准坐标系下,得到有序三维点云。方案通过视觉定位方式准确获取位置信息,并结合单线激光雷达获取点云数据的方式,能够获取到准确的三维地图。另外还提供了渲染和网格化处理,得到带有颜色及可平面化的三维地图。
技术领域
本申请涉及地图重建技术领域,特别涉及三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品。
背景技术
三维地图重建是将三维场景处理成适于计算机表示和理解的数学模型,它是计算机对三维空间环境进行处理、操作和分析的基础,也是在计算机中建立表达客观世界的虚拟现实的关键技术。
移动平台首先需要对本身所处的位置进行定位,然后将不同位置处获取的三维地图模型拼接起来,达到实时三维建图的目的。因此,实时定位和三维场景重建是三维建图的两个关键技术。目前,高精度移动定位和三维重构有两种主要方式,基于激光雷达和基于视觉的定位重建。
基于机器视觉的三维重建方法,可用于机器人实时建图、三维地图重建、地形地貌构建等产品中。目前基于视觉的三维重建方法有三种:基于单/双目视觉三维重建,基于深度相机的三维重建,基于激光雷达的三维重建。
基于单/双目视觉三维重建方法,利用视差进行三维重建,单目重建利用单个摄像头运动过程中,不同位置拍摄相同场景产生的视差进行重建,双目视觉重建则是提前标定双目摄像头位置关系,利用双目视差进行重建。单/双目三维重建需要对不同位置的图像进行匹配,该方法计算较为复杂,需要使用GPU等计算设备,在CPU或者移动平台上难以满足实时重建需求。另外,该方法受现实场景现实纹理光亮影响较大,三维重建质量较差。
基于深度相机的三维重建方法,利用结构光编码、TOF(Time of Flight,是深度摄像头的一种)等原理直接获取三维信息,但是该方法适应能力较差,在室外环境下无法达到满意效果,而且基于深度传感器的三维建图大多需要处理大量的点云信息,造成资源的过度利用。
基于激光雷达的三维重建方法,目前大多使用多线三维激光雷达,设备较为昂贵,成本高,而基于单线激光雷达的三维重建,大多使用一个自旋转装置,不停转动单线逐点扫描的激光获取三维空间点云,这种方式对环境适应较差。
发明内容
本实施例提供了一种三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品,将视觉定位方法和单线激光雷达运动重建结合起来,利用视觉定位的灵活性,使用单线激光雷达运动产生稳定三维点云的特性,有效实现室内外场景的在线实时重建。本实施例环境适应性强,且计算复杂度不高,有效提高了三维场景重建的实用性和鲁棒性。
第一方面,本实施例提供了一种三维建图方法,所述方法包括:
利用视觉定位装置进行定位,得到所述视觉定位装置的位姿信息;
标定所述视觉定位装置与单线激光雷达之间的位姿关系,根据所述视觉定位装置的位姿信息和所述位姿关系,计算出所述单线激光雷达的位姿信息;
根据所述单线激光雷达的位姿信息,将所述单线激光雷达在不同位置采集的激光三维点云,映射到同一基准坐标系下,得到三维地图。
第二方面,本实施例提供了一种三维建图装置,所述装置包括:定位单元、计算单元和三维重建单元;
所述定位单元,用于利用视觉定位装置进行定位,得到所述视觉定位装置的位姿信息;
所述计算单元,用于标定所述视觉定位装置与单线激光雷达之间的位姿关系,根据所述视觉定位装置的位姿信息和所述位姿关系,计算出所述单线激光雷达的位姿信息;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于达闼机器人有限公司,未经达闼机器人有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201780002708.2/2.html,转载请声明来源钻瓜专利网。