[发明专利]一种基于机器视觉的无人机自动检测与跟踪方法有效
申请号: | 201711076986.0 | 申请日: | 2017-11-06 |
公开(公告)号: | CN108038415B | 公开(公告)日: | 2021-12-28 |
发明(设计)人: | 谭智仁 | 申请(专利权)人: | 湖南华诺星空电子技术有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06K9/46 |
代理公司: | 湖南兆弘专利事务所(普通合伙) 43008 | 代理人: | 周长清;胡君 |
地址: | 410205 湖南省长沙市*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 无人机 自动检测 跟踪 方法 | ||
本发明公开一种基于机器视觉的无人机自动检测与跟踪方法,步骤包括:S1.实时采集被监控区域的图像数据;S2.获取静止背景状态的图像数据,提取前景图中的所有连通区域块,根据提取的所有连通区域块建立运动目标的轨迹模型,得到无人机目标位置,并根据得到的无人机目标位置确定图像中所需检测的局部检测区域;S3.获取动态背景图像数据中局部检测区域的图像数据进行目标检测,并根据检测结果更新局部检测区域以跟踪无人机目标。本发明能够基于机器视觉实现无人机的自动检测与跟踪,且具有实现方法简单、检测成本低、检测精度及效率高、抗干扰性及环境适应性强等优点。
技术领域
本发明涉及无人机检测与跟踪技术领域,尤其涉及一种基于机器视觉的无人机自动检测与跟踪方法。
背景技术
无人机已广泛应用于各领域中,为保证无人机安全、可靠的飞行控制,需要对无人机进行有效的检测与跟踪。为实现无人机的检测与跟踪,一种方法是基于雷达进行无人机探测,但是使用该类方法,由于无人机相对于广袤天域而言属于辨识性弱、小的目标,雷达对于较弱、较小的目标分辨能力较差,因而使用雷达进行无人机检测容易产生大量的误报和漏报,且造价成本高;另一种方法是基于可见光条件下进行无人机检测与跟踪,但必须事先手动选中无人机目标才能对其进行跟踪,手动选择目标的过程过于繁琐,且目标飞行的视场角度比较窄,非常容易丢失目标。
有从业者提出基于机器视觉进行无人机自动检测与跟踪,可以提高检测的自动化程度,但目前基于机器视觉进行无人机自动检测与跟踪时,通常都是通过设置多个监控点实现,对每个监控点建立相应的背景模型,以对图像数据进行背景分析,但是采用该类方法的算法设计非常复杂且计算量非常大,同时需要与云台高度配合,操作不便,且当云台旋转的同时,由于需要在指定的监控点位置采集对应的图像数据进行背景分析,因此云台运动到某监控点的位置精度要求非常高,且由于图像解码和网络传输延时的问题,还需要云台在到达每一个监控点时进行短暂停顿,导致检测过程会出现卡顿的现象。
中国专利申请201610474279.6公开一种基于机器视觉的无人机自动检测方法及无人机管制方法,该方法是通过设定多个监控点,并对每个监控点进行背景建模提取运动目标,然后利用无人机的一些显著特征来过滤干扰目标。该方法的整个过程计算复杂,且与云台的配合度要求较高,同时又需要避免图像解码和网络传输造成的延时,需要在指定位置处进行短暂的停顿,导致整个检测流程实时性较差等问题。
发明内容
本发明要解决的技术问题就在于:针对现有技术存在的技术问题,本发明提供一种实现方法简单、检测成本低、检测精度及效率高、抗干扰性及环境适应性强的基于机器视觉的无人机自动检测与跟踪方法。
为解决上述技术问题,本发明提出的技术方案为:
一种基于机器视觉的无人机自动检测与跟踪方法,步骤包括:
S1.图像采集:实时采集被监控区域的图像数据;
S2.静态背景状态目标检测:获取静止背景状态的图像数据,提取前景图中的所有连通区域块,根据提取的所有所述连通区域块建立运动目标的轨迹模型,得到无人机目标位置,并根据得到的所述无人机目标位置确定图像中所需检测的局部检测区域;
S3.动态背景状态目标跟踪:获取动态背景图像数据中所述局部检测区域的图像数据进行目标检测,并根据检测结果更新所述局部检测区域以跟踪无人机目标。
作为本发明的进一步改进,所述步骤S2中建立运动目标的轨迹模型的具体步骤为:建立运动目标的航迹管理模块,通过所述航迹管理模块循环遍历每帧图像数据的所述连通区域块,将每个所述连通区域块添加至所属的轨迹,并在判断到目标连通区域相比于所属的轨迹为超时状态时将当前所属轨迹删除,直至存在元素个数达到指定阈值的目标轨迹,由目标轨迹建立得到运动目标的轨迹模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南华诺星空电子技术有限公司,未经湖南华诺星空电子技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711076986.0/2.html,转载请声明来源钻瓜专利网。