[发明专利]基于视觉非完整机器人在极坐标下的无模型目标跟踪方法有效
申请号: | 201710266847.8 | 申请日: | 2017-04-21 |
公开(公告)号: | CN107097256B | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 陈华;陈晖 | 申请(专利权)人: | 河海大学常州校区 |
主分类号: | B25J19/00 | 分类号: | B25J19/00;B25J9/16;G06T7/20;G06T7/00;G06T7/13;G06T7/155;G06T7/50 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 姚兰兰;董建林 |
地址: | 213022 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于视觉的非完整机器人在极坐标下的无模型目标跟踪方法,非完整机器人通过RGB‑D摄像机实时采集机器人前方的视觉信息,利用RGB‑D摄像机可同时采集深度图像和RGB图像的特点,根据采集的RGB图像来判断目标物体的水平横向位移;根据采集的深度图像来判断目标物体的水平纵向位移。通过部分坐标的选取可以把不同坐标系中的RGB图像数据和深度数据映射到同一个极坐标中;根据极坐标设计跟踪算法,从而实现对目标物体的跟踪。本发明实现了非完整机器人的目标跟踪,充分利用了RGB‑D摄像机的特点,通过分别利用深度图和RGB图的优点得到精度更高的目标位置解决了单独使用一种图像跟踪的误差较大的问题。 | ||
搜索关键词: | 基于 视觉 完整 机器人 坐标 模型 目标 跟踪 方法 | ||
【主权项】:
1.一种基于视觉非完整机器人在极坐标下的无模型目标跟踪方法,其特征在于,具体步骤如下:(1)机器人通过摄像机获取环境信息图像并对RGB图像先进行高斯平滑滤波、图像灰度化处理,然后利用Sobel算子进行边缘检测,通过自适应二值化处理获得二值化图像,对二值化图像进行图像形态学处理,之后通过对连通区域进行判断,根据颜色和形状特征提取出目标区域;(2)根据RGB图像中与深度图像的坐标关系,确定深度图像中的目标区域;(3)当目标运动时,根据迭代最近点算法计算出相邻两帧图像间的位移关系,设两帧图获取间隔为t,得到目标的水平方向的位移x,同时根据深度图像得出垂直方向的位移值y;(4)根据步骤(3)中得出的位移值,在极坐标系中建立机器人与目标间的坐标图;(5)根据步骤(4)中的机器人与目标间的关系得出机器人的线速度和角速度。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学常州校区,未经河海大学常州校区许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710266847.8/,转载请声明来源钻瓜专利网。
- 上一篇:小机台二次元机械手
- 下一篇:一种水泥细度负压筛析仪