[发明专利]基于显著性检测的水面目标跟踪方法有效
| 申请号: | 201510761806.7 | 申请日: | 2015-11-10 |
| 公开(公告)号: | CN105405138B | 公开(公告)日: | 2018-05-29 |
| 发明(设计)人: | 王贺升;陈卫东;智绪浩 | 申请(专利权)人: | 上海交通大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/20;G06K9/00;G06K9/46 |
| 代理公司: | 上海汉声知识产权代理有限公司 31236 | 代理人: | 郭国中 |
| 地址: | 200240 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 水面目标 显著性 跟踪 检测 目标跟踪算法 跟踪算法 目标跟踪 目标特征 图像能量 位置验证 显著特征 增量编码 自适应性 实时性 光照 图像 水面 衡量 | ||
本发明提供了一种基于显著性检测的水面目标跟踪方法,特点是首先利用水岸线检测提供目标跟踪的ROI和位置验证信息,之后将增量编码长度作为衡量图像能量信息的指标,表示出图像中特征的稀有程度,利用水面特点和目标特征将显著特征图中的目标进行提取,从而完成水面目标跟踪算法。和常用的目标跟踪算法相比,本发明更加适用于水面目标跟踪,具有实时性优秀,光照自适应性的特点。
技术领域
本发明涉及,具体地,涉及基于显著性检测的水面目标跟踪方法,尤其是一种应用于水上图像捕捉和视频数据分析的视频目标跟踪方法。
背景技术
视频跟踪算法是以图像序列为输入,图像中目标的大小位置等属性为输出。理想情况下,输出的目标属性是准确和实时的,然而,在现实世界中,由于背景千变万化,还有各种干扰的存在,往往很难达到理想状态,因此找到一种适应于当前环境的,对光照和背景变化有一定自适应性的实时性算法是目标跟踪的关键。
目前常用的算法有如下几种:
Meanshift算法,是一种利用颜色信息进行匹配固定大小区域的图像的方法,能够不依靠先验知识的情况下根据样本点计算出概率密度函数值,计算出目标区域和候选区域的相似度,计算出meanshift向量,不断进行候选区域的移动和迭代计算,直到寻找到目标或者达到迭代的次数限制。
背景差分法:是利用当前图像与背景图像的差分来识别运动目标的方法,其背景模型的获取和更新是该方法的关键技术。一种简单的获取背景图像的方法是当场景中无任何目标出现时捕获背景图像,这种人工的非自适应性方法获取的背景图像仅仅适用于短时间的视频监控。目前大多数算法已经放弃这种非自适应性的背景图像估计方法。当场景环境不是很复杂时,可以使用统计滤波完成场景中背景图像的估计,大多数情况下都可以得到正确的背景估计图像,但是当场景中有部分物体做无规则运动时,会引起场景中像素值的不断变化,从而引起估计误差。基于高斯统计模型的背景估计方法在有部分区域不断变化的场景中也能够比较准确的估计出背景模型,但是它的计算比较复杂,且无法满足实时性要求。
基于分类式的跟踪方法是将目标跟踪问题转换为一个连续目标检测问题,目标检测是通过分类器对不同图像区域进行分类为目标或者背景来实现。
水面上的视觉感知有其特殊的技术难点,水面上受光照影响比较大,同一天的不同时间,太阳光照的方向不一样,导致水面上的反光强度和方向都有所不同,而且不同天气对水面上光强的影响也是比较大,这要求视觉信息处理算法有较高的自适应性。在进行目标探测过程中,目标距离较远时,与背景区分度不足够大,所以需要进行图像的加强和滤波从而提取目标信息。
发明内容
针对现有技术中的缺陷以及水面特点,本发明的目的是提供一种基于显著性检测的水面目标跟踪方法,对于光照有着自适应性,且能够满足实时性要求。
本发明首先利用水岸线检测得到水岸线的具体位置,从而能够提供物理环境信息,进而为目标的检测提供位置验证信息和ROI(region of interest,感兴趣区域)。利用稀疏字典对图像进行压缩感知,之后利用增量编码长度对于图像的稀有性进行衡量从而得到显著图特征。
根据本发明提供的一种基于显著性检测的水面目标跟踪方法,包括水岸线检测步骤;
所述水岸线检测步骤,包括如下步骤:
步骤A1:对图像进行降采样,得到降采样图像;
步骤A2:将经降采样得到的图像的颜色空间RGB空间转换到HSV空间;设定色调阈值T_h、饱和度阈值T_s、亮度阈值T_v;
将图像中色调分量h小于色调阈值T_h或者饱和度分量s小于饱和度阈值T_s的区域,判定为待区分水面或天空区域;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201510761806.7/2.html,转载请声明来源钻瓜专利网。





