[发明专利]一种基于视觉反馈的无人艇目标跟踪方法在审
申请号: | 201810553029.0 | 申请日: | 2018-05-31 |
公开(公告)号: | CN108646741A | 公开(公告)日: | 2018-10-12 |
发明(设计)人: | 曾薄文;赵洋;段涛;项伯贵;刘庭瑞 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G05D1/02 | 分类号: | G05D1/02 |
代理公司: | 哈尔滨市松花江专利商标事务所 23109 | 代理人: | 岳泉清 |
地址: | 150001 黑龙江*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 跟踪目标 目标跟踪 视觉反馈 世界坐标系 船舶运动控制 跟踪目标位置 运动控制单元 像素坐标系 导航领域 发送命令 跟踪算法 推进电机 位置坐标 相机视场 自身位置 抗扰动 跟踪 处理器 舵机 舵角 运算 检测 响应 | ||
一种基于视觉反馈的无人艇目标跟踪方法,本发明涉及基于视觉反馈的无人艇目标跟踪方法。本发明为了解决现有方法复杂、响应速度慢、运算精度低以及抗扰动能力差的问题。本发明包括:一:对跟踪目标采用KCF跟踪算法进行检测和跟踪,确定跟踪目标的位置坐标;二:建立像素坐标系与世界坐标系下跟踪目标的对应关系,得到跟踪目标在世界坐标系下的坐标;三:无人艇处理器计算跟踪目标位置和自身位置的偏差,发送命令给运动控制单元进行控制,调整无人艇舵机的舵角以及推进电机的转速,使跟踪目标保持在相机视场的中央并使无人艇与跟踪目标保持在设定距离范围内,即实现了无人艇船舶运动控制系统对目标进行跟踪航行。本发明用于无人艇导航领域。
技术领域
本发明涉及无人艇导航领域,具体涉及基于视觉反馈的无人艇目标跟踪方法。
背景技术
水面无人艇(USV)能够自主航行,自主规划航迹,对周围环境具有一定的感知能力,能够实现对目标识别追踪,自主避障等功能。水面无人艇在应用到海军上,需要具有,海上安全,反水雷措施,电子战,海上拦截,反潜战,水面战,军力支持等能力。相对于陆地与天空环境,水面无人艇面临着更加恶劣的条件,由此提升无人艇的环境感知、视觉感知能力,对提升水面无人艇的自操作能力和安全性有很大的提升。结合计算机视觉,能够对水面目标有更强的感知识别能力,对无人艇的生存作业能力有巨大的提升。
能够自主识别判断其作业环境中的目标物是水面无人艇的主要任务之一,因此对其视觉与处理系统有较高的智能化要求。水面无人艇对近距离目标或障碍物识别主要基于视觉系统而进行,因此,研究无人艇对水面目标的追踪具有十分重大的意义。
发明内容
本发明的目的是为了解决现有方法复杂、响应速度慢、运算精度低以及抗扰动能力差的缺点,而提出一种基于视觉反馈的无人艇目标跟踪方法。
一种基于视觉反馈的无人艇目标跟踪方法包括以下步骤:
本发明的目的是为水面无人艇提供一种可实现视觉跟踪的系统,以此实现无人艇的自主目标跟踪,实现无人艇的智能控制。该系统可适用于各种无人艇的视觉导航与跟踪,在可控制的范围内,对于指定的目标,在视觉单元捕捉到目标后,保证目标始终处在船载相机的视野范围之内,完成自主跟踪任务。
步骤一:对跟踪目标采用KCF(Kernel Correlation Filter)跟踪算法进行检测和跟踪,确定跟踪目标的位置坐标;
步骤二:建立像素坐标系与世界坐标系下跟踪目标的对应关系,计算无人艇与跟踪目标的距离,完成跟踪目标的精确定位,即得到跟踪目标世界坐标系下的坐标;
步骤三:无人艇处理器计算跟踪目标位置(步骤二得到的跟踪目标世界坐标系下的坐标)和自身位置的偏差,发送命令给运动控制单元进行控制,调整无人艇舵机的舵角以及推进电机的转速,使跟踪目标保持在相机视场的中央并使无人艇与跟踪目标保持在设定距离范围内,即实现了无人艇船舶运动控制系统对目标进行跟踪航行。
本发明的有益效果为:
本发明的提供了一种基于视觉反馈的无人艇目标跟踪系统,系统主要分为两部分:即无人艇的船体部分与船体以外的地面部分。其中船体部分主要通过安装在无人艇前方的摄像头作为反馈元件,把拍摄到的实时的目标图像反馈给无人艇上的处理器进行图像处理,计算目标的实时位置并跟踪目标。处理器计算目标位置与自身位置的偏差,发送控制信号,通过控制船上部分的运动控制单元实现目标跟踪任务。具有算法简单、相应速度快、运算精度高、抗扰动能力强的特点。本发明目标识别率达到99%以上。
本发明的视觉反馈单元(相机),能够准确识别并跟踪目标物体的位置变化,所选的目标定位算法能够准确计算出目标物体与无人艇的相对位置,从而控制无人艇根据视觉的反馈,能够跟踪上目标。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810553029.0/2.html,转载请声明来源钻瓜专利网。