[发明专利]一种基于视觉的机器人自主跟踪方法在审
申请号: | 202010436066.0 | 申请日: | 2020-05-21 |
公开(公告)号: | CN111612823A | 公开(公告)日: | 2020-09-01 |
发明(设计)人: | 范江波;郑昆;徐云水;赵泽彪;邱平;李锐 | 申请(专利权)人: | 云南电网有限责任公司昭通供电局 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/62;G06K9/34;G06K9/00 |
代理公司: | 昆明人从众知识产权代理有限公司 53204 | 代理人: | 陈波 |
地址: | 657000 *** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 机器人 自主 跟踪 方法 | ||
本发明公开了一种基于视觉的机器人自主跟踪方法,属于自动化机器人技术领域。本发明使用基于GOTURN跟踪模型与基于SegNet的场景分割模型确定目标位置与感知周围环境规划路径避免障碍物,系统通过平行投影建立像素坐标与二位平面坐标的映射关系,视觉定位融合环境数学模型构建极坐标下的局部栅格地图,最后通过A*算法规划机器人与目标之间的最优轨迹;在室内和走廊环境下均能实现较强的跟踪能力和较长的跟踪距离。
技术领域
本发明涉及一种基于视觉的机器人自主跟踪方法,属于自动化机器人技术领域。
背景技术
近几年的研究中,Sidenbladh等人使用肤色分割从RGB图像中检测目标人物并跟踪人物头部,其检测结果易受周围光照、目标运动等因素的影响从而影响系统性能。Adiwahono等人提出了一种灵活腿部特征检测方法,但是对人体姿态变化敏感。Gockley等人使用标准粒子滤波算法对激光扫描仪数据进行分割并跟踪潜在目标,作者设计了方向跟踪和路径跟踪两种跟踪方案,但是系统缺乏可识别的视觉信息其有效范围小于3.5m。Wang等人利用基于双目摄像机的三维重建获得机器人与人之间的相对位置,为了获得足够的重建精度将人和机器人之间的距离设置为1~2.5m之间。上述传统方法更多的是对目标的精确跟踪和跟踪目标轨迹但是没有采用路径规划,这意味着机器人只能跟踪附近的目标。
发明内容
本发明提供了一种基于视觉的机器人自主跟踪方法。
本发明的技术方案是:一种基于视觉的机器人自主跟踪方法,首先,先手动选取跟踪目标,将CNN的输入设置为目标和周围的背景区域;再根据训练数据集将环境分割为不同的类别;建立一个极坐标下局部地图,把机器人作为极坐标系的中心,建立像素坐标点与平面坐标点及栅格坐标之间的转换关系,并计算栅格的像素作为统计栅格障碍;设置机器人起始的栅格坐标,机器人目标位置通过目标跟踪算法获得,最终使用A*算法来完成最优路径搜索。
所述方法的具体步骤如下:
Step1、人工选取目的地目标,将CNN的输入设置为目标区域和目标周围的背景区域,如果在t-1帧中的追踪对象是以边界框(Cx,Cy)的中心,宽度和高度分别是w、h的Bounding Box,则在下一时刻t,集中于中心(Cx,Cy),宽度和高度分别为k1w、k1h的图像区域被提取为在所述前一帧中的搜索区域;其中,Cx、Cy为点坐标,t为时刻,k1w、k1h分别为背景区域的宽和高,k1是一个系数;
Step2、搜索到目的地目标后,需要根据训练数据集将场景分割为不同的类别:根据训练数据集将场景分割为不同的类别,如人、地、树或其他类别,由此将场景进行分割;
Step3、得到场景分割的模型,方便通过视觉定位算法建立目的地目标的图像坐标与平面实际坐标之间的映射关系:设相机坐标系{C}为参考坐标系,空间中存在一个平面π,平面上存在一个三维点pi=[xi,yi,zi,1]T,i=1,2,...n,n为三维点总数;根据小孔成像模型得出pi的归一化投影坐标以及pi的齐次图像坐标;
Step4、建立一个以机器人为极坐标中心的局部地图:
以(r,t)的形式来表示极坐标;根据以下公式得到每一个栅格的极径和极角:
Rc=Cres·r1,r1∈(1,Rdim)
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云南电网有限责任公司昭通供电局,未经云南电网有限责任公司昭通供电局许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010436066.0/2.html,转载请声明来源钻瓜专利网。