[发明专利]基于相位检测的移动机器人避障方法、芯片和机器人在审
申请号: | 202210097682.7 | 申请日: | 2022-01-27 |
公开(公告)号: | CN114489078A | 公开(公告)日: | 2022-05-13 |
发明(设计)人: | 赖钦伟;肖刚军 | 申请(专利权)人: | 珠海一微半导体股份有限公司 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 519000 广东省珠海*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 相位 检测 移动 机器人 方法 芯片 | ||
本发明公开一种基于相位检测的移动机器人避障方法、芯片和机器人,该方法包括以下步骤:S1:对相位检测模块进行设置,使相位检测模块的对焦距离为设定距离;S2:通过相位检测模块获取环境信息,得到若干组相位曲线;S3:基于相位曲线的相位差来获取障碍物距离信息;S4:基于障碍物距离信息来实现避障;其中,每组相位曲线均包括两条不同的亮度曲线。本申请将图像相位检测应用于机器人距离检测,单个摄像头可以获取到相对比较稠密的3d距离信息,实现准确的障碍物检测。
技术领域
本发明涉及智能机器人技术领域,涉及一种基于相位检测的移动机器人避障方法、芯片及机器人。
背景技术
移动机器人需要靠传感器来感知周围的世界,其中对于三维距离的感知,是其中最重要的部分。目前常见的技术有结构光、双目、3d-tof等,但是这些技术各自有些缺点,主要集中在价格偏高、三维信息不够稠密等问题。
发明内容
为了解决上述技术缺陷,本发明技术方案公开一种基于相位检测的移动机器人避障方法、芯片和机器人,本申请将图像相位检测应用于机器人距离检测,单个摄像头可以获取到相对比较稠密的3d距离信息,实现准确的障碍物检测。具体的技术方案如下:
一种基于相位检测的移动机器人避障方法,该方法包括以下步骤:S1:对相位检测模块进行设置,使相位检测模块的对焦距离为设定距离;S2:通过相位检测模块获取环境信息,得到若干组相位曲线;S3:基于相位曲线的相位差来获取障碍物距离信息;S4:基于障碍物距离信息来实现避障;其中,每组相位曲线均包括两条不同的亮度曲线。
进一步地,在执行步骤S1前,机器人通过光照度传感器检测环境的光照度,若环境的光照度小于或等于光照度阈值时,机器人通过补光灯为相位检测模块进行补光。
进一步地,步骤S1中,对相位检测模块进行设置,设置相位检测模块的对焦距离,包括以下步骤:使相位检测模块与障碍物之间的距离为设定距离;通过相位检测模块开启自动对焦功能来获取环境图像,然后固定相位检测模块的镜片组,当前相位检测模块的对焦距离为设定距离。
进一步地,步骤S2中,通过相位检测模块获取环境信息,得到若干组相位曲线,包括以下步骤:机器人通过相位检测模块检测环境的信息,得到若干组像素点组合。
进一步地,步骤S3中,基于其中一组相位曲线的相位差来获取障碍物距离信息,包括以下步骤:机器人随机选取一组相位曲线,比较两条不同亮度的亮度曲线之间的相位差;若两条不同亮度的亮度曲线重叠,则机器人与障碍物之间的距离为对焦距离;若两条不同亮度的亮度曲线不重叠,则根据相位检测模块的输出波形的波峰位置来确定焦点位于障碍物的前端还是后端,然后根据两条不同亮度的亮度曲线之间的相位差来得到焦点与障碍物之间的距离,然后根据焦点位于障碍物的前端或后端来将设定距离加上或减去焦点与障碍物之间的距离,得到障碍物与机器人之间的距离;其中,所述两条不同亮度的亮度曲线的偏移方向相反但偏移距离相同,所述相位差为两条不同亮度的亮度曲线相对于重叠位置的偏移距离和。
进一步地,机器人通过计算若干组相位曲线的相位差来得到若干个障碍物与机器人之间的距离,然后将若干个障碍物与机器人之间的距离的平均值作为机器人检测到的障碍物与机器人之间的距离。
进一步地,步骤S4中,基于障碍物距离信息来实现避障,包括以下步骤:机器人移动过程中通过相位检测模块检测环境的信息来更新机器人与障碍物之间的距离信息,若机器人与障碍物之间的距离信息在小于等于避障阈值时,机器人对障碍物进行沿边绕障来实现避障。
一种芯片,该芯片用于存储程序,该程序被配置为执行上述的一种基于相位检测的移动机器人避障方法。
一种机器人,装配有主控芯片,所述主控芯片为上述的芯片。
进一步地,所述机器人还包括相位检测模块、光照度传感器和补光灯,所述相位检测模块包括CMOS传感器,所述补光灯设置在相位传感器的上方。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于珠海一微半导体股份有限公司,未经珠海一微半导体股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210097682.7/2.html,转载请声明来源钻瓜专利网。