[发明专利]一种面向跟随机器人的视觉跟踪方法在审
申请号: | 201711247546.7 | 申请日: | 2017-12-01 |
公开(公告)号: | CN107909603A | 公开(公告)日: | 2018-04-13 |
发明(设计)人: | 俞立;何佳燊;杨旭升;王瑶为;王亚男 | 申请(专利权)人: | 浙江工业大学 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/246;G06T7/90;G06T7/50 |
代理公司: | 杭州斯可睿专利事务所有限公司33241 | 代理人: | 王利强 |
地址: | 310014 浙江省杭州*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 跟随 机器人 视觉 跟踪 方法 | ||
技术领域
本发明涉及智能移动机器人领域,尤其是一种面向移动机器人的视觉跟踪方法。
背景技术
在智能机器人领域,人机协作机器人具有巨大的发展潜力,通过引入有效的人机合作,可提高移动机器人对复杂环境的适应能力,从而完成一些复杂的作业任务,尤其是生活中经常会遇到搬运物品的情况,通常的解决方案是由随行人员来搬运,或者分次搬运。这种方法存在着劳动强度大,费用高,效率低等缺点。
近年来,跟随机器人开始陆续出现在我们的生活中。例如,在机场,机器人可用于帮助老年人搬运行李;在仓库,工作人员不需要拥有驾驶叉车的技能,简单的人机互动即可引导跟随机器人将货物搬运到指定地点;在商场,我们只需要将商品放在机器人上,伴随我们购物。其中,移动机器人对目标人物位置姿态的感知,识别和估计,是其实现人机交互,协作的基础。
目前,现有的跟随机器人系统通常采用红外,超声波传感器,无线通信设备和视觉传感器等实现对目标人物的感知。由于红外或超声波传感器测量范围的局限性,其单独作为获取目标位姿的方式往往效果并不理想。无线通信方式则需要用户在整个跟随过程携带便携式的信号发送模块,然而,无线定位易受环境干扰,误差较大。视觉跟踪方式包含丰富的信息以及良好的跟踪精度,广泛地应用于目标跟踪领域。一些经典的视觉跟踪方法通常采用颜色特征作为目标模板,通过对整张图像的搜索,可得到目标人物在图像中的位置,从而根据图像中目标人物面积的大小来求得人机相对位置。然而,该方法算法计算量大,不适合实时跟踪,且颜色特征受光照等因素影响大,从而造成目标跟踪精度的降低,甚至目标的丢失。目前,针对跟随机器人系统,现有的视觉跟踪方法还未有良好的方案。
发明内容
为了克服已有视觉跟踪方法的算法计算量大、跟踪精度低等不足,本发明提供了一种在保证跟踪稳定性的前提下,有效提高跟踪精度和算法实时性的面向跟随机器人的视觉跟踪方法。该方法首先获取目标用户模板,其次根据meanshift迭代获取目标用户的位置,然后通过深度对跟踪窗口进行自适应处理并求取目标用户质心,最后计算用户与机器人的相对位置来进行跟踪。
为了解决上述问题本发明采用技术方案如下:
一种面向机器人跟随的视觉跟踪方法,所述方法包括以下步骤:
步骤1)对第一帧的图像信息和深度信息进行融合并计算出用户的质心,通过质心位置与周围像素点的深度值对比,计算出深度图中属于该用户的范围即为目标用户模板;
步骤2)建立目标用户模板和下一帧中候选用户模板的颜色概率统计模型,使用相似度函数来进行衡量,通过meanshift算法不断迭代,相似度系数最高的区域为该帧中的最佳候选用户模板;
步骤3)通过对比最佳候选用户模板中心点与周围点的深度值,对该模板窗口进行自适应处理,使窗口大小随人在图像上的大小而改变,避免背景像素的引入对目标颜色统计直方图产生影响,导致目标丢失;
步骤4)根据步骤3)中所计算的量测信息,通过卡尔曼滤波结合相似度函数更新跟踪窗口,使跟踪窗口的变化更加平滑,将meanshift迭代中的核窗口替换为更新后的跟踪窗口后重复步骤2);
步骤5)对跟踪方框内属于人的范围进行质心计算,将质心坐标从像素坐标系转换到相机坐标系下。
进一步,所述步骤1)中,将目标用户模板记为(x,y,w,h),(x,y)为目标跟踪框左上角的坐标,(w,h)为框的宽和高,将(w,h)作为核窗口的大小用于meanshift迭代。
再进一步,所述步骤3)中,像素坐标系下自适应窗口的大小及位置通过深度图来确定,为了避免过多的背景引入,在u轴方向,以方框中心m为搜索中心,向左右两个方向搜索深度突变的坐标点,分别记为un,um,在un到um范围内对v轴寻找深度突变的边界,边界v坐标记为vn,vm,点(un,vn),(un,vm),(um,vm),(um,vn)围成的区域即为自适应窗口。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学,未经浙江工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711247546.7/2.html,转载请声明来源钻瓜专利网。