[发明专利]基于中心暗通道先验信息的图像显著性物体检测方法有效
| 申请号: | 201710600386.3 | 申请日: | 2017-07-21 |
| 公开(公告)号: | CN107292318B | 公开(公告)日: | 2019-08-09 |
| 发明(设计)人: | 李革;朱春彪;王文敏;王荣刚;高文;黄铁军 | 申请(专利权)人: | 北京大学深圳研究生院 |
| 主分类号: | G06K9/46 | 分类号: | G06K9/46;G06K9/62;G06T7/40 |
| 代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
| 地址: | 518055 广东省深*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 中心 通道 先验 信息 图像 显著 物体 检测 方法 | ||
本发明公布了一种基于中心暗通道先验信息的图像显著性物体的检测方法,利用颜色、深度、距离信息对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果,再利用本发明提出的中心暗通道先验信息,优化显著性检测的最终结果。本发明能够更加精准,更加鲁棒地检测出显著性物体。本发明利用中心暗通道先验信息进行显著性检测,可增加显著性物体检测的精准性。同时,也增强了显著性检测的鲁棒性;能够解决现有的显著性检测精确度不高、健壮性不够的问题,使图像中的显著性区域更精准地显现出来,为后期的目标识别和分类等应用提供精准且有用的信息;适用于更多复杂的场景,使用范围更广。
技术领域
本发明涉及图像处理技术领域,尤其涉及一种利用中心暗通道先验信息进行图像的显著性物体检测的方法。
背景技术
在面对一个复杂场景时,人眼的注意力会迅速集中在少数几个显著的视觉对象上,并对这些对象进行优先处理,该过程被称为视觉显著性。显著性检测正是利用人眼的这种视觉生物学机制,用数学的计算方法模拟人眼对图像进行适当的处理,从而获得一张图片的显著性物体。由于我们可以通过显著性区域来优先分配图像分析与合成所需要的计算资源,所以,通过计算来检测图像的显著性区域意义重大。提取出的显著性图像可以广泛应用于许多计算机视觉领域的应用,包括对兴趣目标物体的图像分割,目标物体的检测与识别,图像压缩与编码,图像检索,内容感知图像编辑等方面。
通常来说,现有的显著性检测框架主要分为:自底向上的显著性检测方法和自顶向下的显著性检测方法。目前大多采用自底向上的显著性检测方法,它是基于数据驱动的,且独立于具体的任务;而自顶向下的显著性检测方法是受意识支配的,与具体任务相关。
现有方法中,自底向上的显著性检测方法大多使用低水平的特征信息,例如颜色特征、距离特征和一些启发式的显著性特征等。尽管这些方法有各自的优点,但是在一些特定场景下的具有挑战性的数据集上,这些方法表现的不够精确,不够健壮。为了解决这一问题,随着3D图像采集技术的出现,目前已有方法通过采用深度信息来增强显著性物体检测的精准度。尽管深度信息可以增加显著性物体检测的精准度,但是,当一个显著性物体与其背景有着低对比的深度时,还是会影响显著性检测的精准度。
综合来看,现有的图像显著性物体检测方法在检测显著性物体时精准度不高,方法健壮性不够强,容易造成误检、漏检等情况,很难得到一个精确的图像显著性检测结果,不仅造成显著性物体本身的错检,同时也会对利用显著性检测结果的应用造成一定的误差。
发明内容
为了克服上述现有技术的不足,本发明提出了一种新的基于中心暗通道先验信息的图像显著性物体检测方法,能够解决现有的显著性检测精确度不高、健壮性不够的问题,使图像中的显著性区域更精准地显现出来,为后期的目标识别和分类等应用提供精准且有用的信息。
本发明提供的技术方案是:
一种基于中心暗通道先验信息的图像显著性物体的检测方法,利用颜色、深度、距离信息对图像的显著性区域进行定位检测,得到图像中显著性物体的初步检测结果,再利用本发明提出的中心暗通道先验信息,优化显著性检测的最终结果;其实现包括如下步骤:
1)输入一张待检测图像Io,利用Kinect设备得到的该图像的深度图Id;
2)利用K-means算法将图像Io分成K个区域,并计算得到图像Io每一个区域的颜色显著性值;
3)同颜色显著性值计算方式一样,计算得到深度图Id中每一个区域的的深度显著性值;
4)通常来说,显著性物体都位于中心位置,计算深度图Id子区域k的中心和深度权重DW(dk);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学深圳研究生院,未经北京大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710600386.3/2.html,转载请声明来源钻瓜专利网。





