[发明专利]检测方法、装置、多足机器人及存储介质在审
申请号: | 202210210279.0 | 申请日: | 2022-03-04 |
公开(公告)号: | CN114663754A | 公开(公告)日: | 2022-06-24 |
发明(设计)人: | 肖志光;都业贵;陈昊;何若涛 | 申请(专利权)人: | 深圳鹏行智能研究有限公司 |
主分类号: | G06V20/10 | 分类号: | G06V20/10;G06V10/774;G06K9/62;G01C21/00;G01C21/26;G01C21/36 |
代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 邵泳城 |
地址: | 518000 广东省深圳市南山区粤海街道高*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 检测 方法 装置 机器人 存储 介质 | ||
本申请公开了一种多足机器人可行驶空间的检测方法、装置、多足机器人以及存储介质。检测方法包括:获取当前时刻摄像头采集的图像数据,对图像数据进行预处理以生成满足预设的行驶空间检测模型输入格式要求的预处理图像;根据行驶空间检测模型对预处理图像处理,生成多足机器人行驶空间边界信息,多足机器人行驶空间边界信息包括边界线位置信息和边界属性信息,通过摄像头的标定参数对边界线位置信息进行映射处理生成目标行驶空间。本申请实施方式的检测方法通过行驶空间检测模型对预处理后的图像数据生成多足机器人行驶空间边界信息,并通过摄像头的标定参数对行驶空间边界信息映射处理,得到目标行驶空间,如此,保证了多足机器人行驶安全。
技术领域
本申请涉及图像识别领域,特别涉及一种多足机器人可行驶空间的检测方法、检测装置、多足机器人及计算机可读存储介质。
背景技术
随着多足机器人科技的快速发展,多足机器人的应用也越来越广泛。多足机器人逐渐成为生活中不可或缺的一部分。多足机器人最关键的是要有自主导航能力,给定目标地点即可完全自主的走到目标位置。这涉及到对周围环境的感知、路径规划、控制。而环境感知作为上游模块至关重要,影响着下游能否规划出合理路线,尤其是对障碍物的避让。可行驶空间检测则为多足机器人提供了可以自由移动的空间的信息和障碍物的信息,为多足机器人的自主行驶安全提供保障。
相关技术中,可行驶空间检测主要是基于深度相机、激光雷达、超声波雷达等带有测距能力的传感器,探测出障碍物的空间信息,从而得到多足机器人可行驶的空间。然而,通常,这样的传感器大多价格昂贵,并且传感器的视野角度有限,此外,对细小物体、悬空物体、镂空物体探测不准确。
发明内容
有鉴于此,本申请提供一种多足机器人可行驶空间的检测方法、检测装置、多足机器人及非失易性计算机可读存储介质。
本申请实施方式的检测方法,包括:
获取当前时刻摄像头采集的图像数据;
对所述图像数据进行预处理,以生成满足预设的行驶空间检测模型输入格式要求的预处理图像;
根据预设的行驶空间检测模型对所述预处理图像进行处理,以生成多足机器人行驶空间边界信息,所述行驶空间检测模型由深度学习模型通过标注图像训练得到,所述多足机器人行驶空间边界信息包括边界线位置信息和边界属性信息,所述边界线位置信息为边界线上边界点的坐标信息;所述边界属性信息为边界线上边界点的类别属性信息;
通过所述摄像头的标定参数对所述边界线位置信息进行映射处理生成目标行驶空间。
在某些实施方式中所述根据预设的行驶空间检测模型对所述预处理图像进行处理,以生成多足机器人行驶空间边界信息,还包括:
根据场景检测模型对所述预处理图像进行检测,判断出多足机器人当前所处场景,将所述当前所处场景进行训练的可行驶空间检测模型作为预设的行驶空间检测模型。
在某些实施方式中,所述行驶空间检测模型包括特征提取网络和任务分支网络,所述根据预设的行驶空间检测模型对所述预处理图像进行处理,以生成多足机器人行驶空间边界信息,包括:
通过所述特征提取网络对所述预处理图像进行处理以生成基本特征图;
通过所述任务分支网络对所述基本特征图处理以得到所述多足机器人行驶空间边界信息。
在某些实施方式中,所述行驶空间检测模型由深度学习模型通过标注图像训练得到,包括:
所述标注图像由多列像素组成,将所述标注图像每列像素根据预设边界点选取原则筛选出目标像素标注为边界点,所述边界点选取原则为从所述标注图像底边向上搜索到最先触碰的障碍物,以该障碍物的接地点或者该障碍物投影到地面的投影点作为所述边界点;
将所有所述边界点构成边界线。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳鹏行智能研究有限公司,未经深圳鹏行智能研究有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210210279.0/2.html,转载请声明来源钻瓜专利网。