[发明专利]一种基于声纳的机器人跟踪方法有效
申请号: | 201710268355.2 | 申请日: | 2017-04-22 |
公开(公告)号: | CN107422725B | 公开(公告)日: | 2020-04-17 |
发明(设计)人: | 王振华 | 申请(专利权)人: | 南京阿凡达机器人科技有限公司 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 江苏圣典律师事务所 32237 | 代理人: | 贺翔;刘辉 |
地址: | 211316 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 声纳 机器人 跟踪 方法 | ||
本发明提出一种基于声纳的机器人跟踪方法,采用非接触单向直接测距方法和收发分离的设计,声纳发射器负责发射超声波,声纳接收器负责接收超声波,使用无线通信的方法同步发射器和接收器的本地时间信号,通过计算超声波到达的时间差值来计算目标的距离并进行定位。该方法实现了单一传感器多种用途,既实现了产品功能又降级制造成本,同时可以实时快速的探测到外界环境中障碍物的信息;而且探测没有盲区,多种传感器测量的参数互补实用,能实时可靠的为机器人控制中心提供最真实的外部环境参数,以便机器人控制中心实时的优化行进线路和及时快速的避障。该方法以较低的成本和简单的结构实现了多项功能,定位跟踪准确,应用价值很高。
技术领域
本发明属于移动机器人跟踪定位、导航、避障技术领域,特别是一种基于声纳的机器人跟踪方法。
背景技术
为了使机器人服务于特定的目标对象,帮助人们完成任务,要求这类机器人应该具有目标识别和自主导航的功能。目前具有目标识别和自主导航的机器人普遍通过“机器视觉系统”识别目标,并辅助以其它传感器来完成自主导航功能。
“机器视觉”是对人的视觉功能进行模拟,获取目标信息,并对目标信息进行处理。根据视觉传感器数据不同,分为“单目视觉”和“双目视觉”等。“单目视觉系统”对目标的表达主要体现在二维图像的明暗度、纹理、表面轮廓线、阴影等,它在成像过程中损失了成像点的深度信息,这是这类系统一个严重缺点。另外“单目视觉”的感知范围有限,缩小焦距增大广角往往需要增大图像畸变为代价,这就是这类系统的另一个缺点。“双目视觉”符合生物视觉的结构,在三维信息获取上有优势,但是双目摄像的结构复杂,算法不成熟。而且“机器视觉”通过提取目标图像数据,通过3D建模及大量复杂算法才能实现,对于硬件平台的要求高,成本也就居高不下。
目前“机器视觉”的实现往往借助于PC来进行大量算法计算,基于嵌入式的“机器视觉”应用还处在研究阶段。即使有应用,效果也不理想,在跟踪时很容易跟丢目标。
发明内容
本发明旨在于提出一种基于声纳的机器人跟踪方法,该方法能够实现移动机器人基于声纳实现定位、跟踪与避障功能,以较低的成本和简单的结构实现了多项功能,避免损失成像点的深度信息和图像畸变,定位跟踪准确。
为实现上述发明目的,本发明采用以下技术方案:
本发明是一种基于声纳的机器人跟踪方案采用非接触单向直接测距方法和收发分离的设计,声纳发射器负责发射超声波,声纳接收器负责接收超声波,使用无线通信的方法同步发射器和接收器的本地时间信号,通过计算超声波到达的时间差值来计算目标的距离并进行定位。
具体来说,本发明的一种基于声纳的机器人跟踪方法包括以下步骤:
1)在移动机器人及目标上安装声纳收发器;所述移动机器人上的一个声纳收发器作为协调器。
2)所述协调器接收移动机器人的运动控制器发出的目标识别和定位指令,然后所述协调器发回目标识别和定位数据至运动控制器,所述运动控制器根据协调器发回的目标识别和定位数据确定目标方位并计算出所述机器人与目标之间的距离。
3)所述协调器接收移动机器人的运动控制器发出的测距指令,然后所述协调器发回测距数据至运动控制器,所述运动控制器根据协调器发回的测距数据确定所述移动机器人和目标之间是否有障碍物,如果有障碍物,则计算出所述移动机器人与障碍物之间的距离。
4)所述运动控制器根据目标识别和定位数据以及测距数据判断出状态和计算出数据并规划跟随路径,并依据跟随路径发送动作指令序列给所述移动机器人的伺服控制器,由所述伺服控制器驱动所述移动机器人上的驱动装置实现跟随动作。
5)所述移动机器人在跟随目标的过程中,通过所述运动控制器不断发出目标识别和定位指令、测距指令获得目标的位置和距离以及行走环境中障碍物的信息,从而不断地实时更新所述移动机器人的行走路径,达到定位、路径规划、自主跟随和动态避障的目的。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京阿凡达机器人科技有限公司,未经南京阿凡达机器人科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710268355.2/2.html,转载请声明来源钻瓜专利网。