[发明专利]基于多线激光雷达与事件相机SLAM的机器人控制方法、系统有效
| 申请号: | 202110277131.4 | 申请日: | 2021-03-15 |
| 公开(公告)号: | CN112631314B | 公开(公告)日: | 2021-06-04 |
| 发明(设计)人: | 何昊名;董志岩;古家威;黄秀韦 | 申请(专利权)人: | 季华实验室 |
| 主分类号: | G05D1/02 | 分类号: | G05D1/02 |
| 代理公司: | 佛山市海融科创知识产权代理事务所(普通合伙) 44377 | 代理人: | 陈志超;黄家豪 |
| 地址: | 528200 广东省*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 激光雷达 事件 相机 slam 机器人 控制 方法 系统 | ||
1.一种基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,包括步骤:
A1.根据双目事件相机采集的图像数据生成3D地图;
A2.获取由多线激光雷达采集的激光点云数据;所述多线激光雷达预先与所述双目事件相机联合标定同步;
A3.用所述激光点云数据和所述3D地图进行融合,得到融合的3D地图;
A4.将所述融合的3D地图进行2D映射获得平面栅格地图;
A5.获取由惯性测量单元测得的机器人位姿数据;
A6.根据所述平面栅格地图和所述机器人位姿数据生成避障运动控制指令,并发送至机器人。
2.根据权利要求1所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,步骤A6包括:
根据所述平面栅格地图生成全局路径规划指令;
根据双目事件相机采集的图像数据生成局部避障运动指令;
整合所述全局路径规划指令和所述局部避障运动指令,并结合所述机器人位姿数据生成避障运动控制指令。
3.根据权利要求2所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,所述根据双目事件相机采集的图像数据生成局部避障运动指令的步骤包括:
根据光强变化从双目事件相机采集的图像数据中提取特征点进行光流分析与跟踪;
根据特征点的深度信息识别是否有物体进入避障范围;
若是,则识别障碍物体的运动趋势用以和所述障碍物体的深度信息进行人工势场算法运算以及四分光流场算法运算,生成局部避障运动指令。
4.根 据权利要求3所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,所述根据特征点的深度信息识别是否有物体进入避障范围的步骤包括:
判断是否有至少一个特征点的深度小于深度阈值;
若是,则判定有物体进入避障范围,否则,判定没有物体进入避障范围。
5.根 据权利要求4所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,所述判断是否有至少一个特征点的深度小于深度阈值的步骤之前,还包括步骤:
获取机器人的运动速度数据;
根据所述运动速度数据和预设增益计算深度阈值。
6.根 据权利要求3所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,所述若是,则识别所述物体的运动趋势用以和所述物体的深度信息进行人工势场算法运算以及四分光流场算法运算,生成局部避障运动指令的步骤包括:
通过DBSCAN聚类算法对所述特征点进行分组,得到各个物体的特征点集合;
根据障碍物体的特征点集合的流光趋势判定所述障碍物体的运动方向;
利用四分光流场算法进行快速前进方向障碍识别与避让响应,得到运动方向指令;
利用人工势场算法计算引力势场Uatt和斥力势场Urep,得到雅阁比梯度合力指定的运动方向;
对所述雅阁比梯度合力指定的运动方向和所述运动方向指令进行整合得到局部避障运动指令。
7.根据权利要求1所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,步骤A1包括:
获取双目事件相机采集的图像数据;
根据所述图像数据进行ORBSLAM建图,得到3D地图。
8.根据权利要求1所述的基于多线激光雷达与事件相机SLAM的机器人控制方法,其特征在于,步骤A2包括:
获取多线激光雷达采集的原始激光点云数据;
对所述原始激光点云数据进行预处理,得到去除运动畸变点且时间帧对齐的激光点云数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于季华实验室,未经季华实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110277131.4/1.html,转载请声明来源钻瓜专利网。





