[发明专利]一种基于视觉的机器人自主跟踪方法在审
申请号: | 202010436066.0 | 申请日: | 2020-05-21 |
公开(公告)号: | CN111612823A | 公开(公告)日: | 2020-09-01 |
发明(设计)人: | 范江波;郑昆;徐云水;赵泽彪;邱平;李锐 | 申请(专利权)人: | 云南电网有限责任公司昭通供电局 |
主分类号: | G06T7/246 | 分类号: | G06T7/246;G06K9/62;G06K9/34;G06K9/00 |
代理公司: | 昆明人从众知识产权代理有限公司 53204 | 代理人: | 陈波 |
地址: | 657000 *** | 国省代码: | 云南;53 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 视觉 机器人 自主 跟踪 方法 | ||
1.一种基于视觉的机器人自主跟踪方法,其特征在于:首先,手动选取跟踪目标,将CNN的输入设置为目标和周围的背景区域;再根据训练数据集将环境分割为不同的类别;建立一个极坐标下局部地图,把机器人作为极坐标系的中心,建立像素坐标点与平面坐标点及栅格坐标之间的转换关系,并计算栅格的像素作为统计栅格障碍;设置机器人起始的栅格坐标,机器人目标位置通过目标跟踪算法获得,最终使用A*算法来完成最优路径搜索。
2.根据权利要求1所述的基于视觉的机器人自主跟踪方法,其特征在于:所述方法的具体步骤如下:
Step1、人工选取目的地目标,将CNN的输入设置为目标区域和目标周围的背景区域,如果在t-1帧中的追踪对象是以边界框(Cx,Cy)的中心,宽度和高度分别是w、h的BoundingBox,那么在下一时刻t,在第t-1帧提取一个以(cx,cy)为中心,宽和高分别为k1w、k1h的图像区域作为搜索区域;其中,Cx、Cy为点坐标,t为时刻,k1w、k1h分别为背景区域的宽和高,k1是一个系数;
Step2、搜索到目的地目标后,需要根据训练数据集将场景分割为不同的类别:根据训练数据集将场景分割为不同的类别,如人、地、树或其他类别,由此将场景进行分割;
Step3、得到场景分割的模型,方便通过视觉定位算法建立目的地目标的图像坐标与平面实际坐标之间的映射关系:设相机坐标系{C}为参考坐标系,空间中存在一个平面π,平面上存在一个三维点pi=[xi,yi,zi,1]T,i=1,2,...n,n为三维点总数;根据小孔成像模型得出pi的归一化投影坐标以及pi的齐次图像坐标;
Step4、建立一个以机器人为极坐标中心的局部地图:
以(r,t)的形式来表示极坐标;根据以下公式得到每一个栅格的极径和极角:
Rc=Cres·r1,r1∈(1,Rdim)
Cconst=Rdim·Cres
其中,x、y表示参考坐标系中pi坐标点的横纵坐标,Rc代表线性区域栅格到坐标原点的半径长度,也叫栅格半径;相应的Rn就是非线性区栅格的半径长度,r1、r2代表栅格的半径编号;Cres表示线性区单个栅格的长度,hcam表示相机光心到地面的距离,hRmin表示在1.8m时相机视野顶端与地面的距离,Rdim表示线性区栅格的个数,hRdim表示非线性区栅格的个数,Tdim表示在角度维度上将机器人一圈划分份数,即每个栅格占据2度大小的空间;
将求得的极径rp代入公式中求得半径方向中的栅格坐标,即极径,tp即为在角度方向的坐标,即极角;栅格中标签为障碍物的像素点占栅格中所有像素点的比例λ阈值时,栅格是障碍物,否则它是平坦的;
Step5、使用A*算法来完成最优路径搜索:进行路径搜索时设置起始点位于极坐标的原点,将极角90度设置为机器人的初始朝向,目标位置可以通过目标跟踪算法获得,最终使用A*算法来完成最优路径搜索。
3.根据权利要求2所述的基于视觉的机器人自主跟踪方法,其特征在于:所述步骤Step2中采用SegNet进行场景分割。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于云南电网有限责任公司昭通供电局,未经云南电网有限责任公司昭通供电局许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010436066.0/1.html,转载请声明来源钻瓜专利网。