[发明专利]一种基于视觉显著性的多视角图像目标检测方法有效
申请号: | 201610712411.2 | 申请日: | 2016-08-23 |
公开(公告)号: | CN106327493B | 公开(公告)日: | 2018-12-18 |
发明(设计)人: | 徐进;傅志中;郭文波;周宁;李晓峰 | 申请(专利权)人: | 电子科技大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 电子科技大学专利中心 51203 | 代理人: | 周刘英 |
地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 显著性图 投影 背景区域 空洞 视角 融合 多视角图像 视觉显著性 目标检测 前景目标 前景物体 遮挡 背景干扰 空洞区域 空间关系 目标视角 目标物体 视角图像 图像边缘 图像区域 中间目标 多视角 二值化 显著性 映射 场景 清晰 | ||
本发明公开了一种基于视觉显著性的多视角图像目标检测方法,包括:针对前景目标未被遮挡的场景,计算多个视角图像的显著性图,利用视角之间的空间关系,将两侧视角的显著性图投影到中间目标视角,并将投影显著性图和中间视角的显著性图相融合得到融合显著性图。被前景物体遮挡的区域在投影时不能真实映射到目标视角,投影显著性图中前景目标周围会产生投影空洞,在融合显著性图中将该投影空洞区域视为背景区域。利用多视角投影空洞划分图像区域,投影空洞和图像边缘之间的区域以及不同前景物体的投影空洞之间的区域均视为背景区域。在融合显著性图中,将以上得到的背景区域的显著性值置为零,并二值化后便可得到边缘清晰、无背景干扰的目标物体。
技术领域
本发明-属于图像目标检测的技术领域,尤其涉及对多视角图像的目标检测方法。
背景技术
视觉显著性是指人们观察外界事物时,视觉系统能够自主探测、感知场景中各个位置的敏感性信息。该原理来源于人类视觉系统的仿生研究成果,它依据生物神经原理建立计算模型,构建类似于神经系统捕捉、处理外界信息的过程,实现场景中显著性目标的感知。
经过对现有技术总结发现,对于简单场景图像,基于视觉显著性的目标检测容易取得好的效果,对于复杂场景图像,基于单幅图像显著性信息的目标检测方法往往不能进行准确的目标区域检测与判断。利用更多的图像能够补充目标信息,提高检测准确度。现有的多幅图像的显著性计算主要集中于多幅相似图像的联合显著性检测,其主要问题在于相似图像的来源受限,不适合实际应用。随着3D技术的发展,多视角图像提供了另外一种基于多幅图像的显著性目标检测途径,多视角显著性可以融合更多信息,抑制复杂背景,突出显著目标,得到背景干扰小、边缘清晰的显著目标。
发明内容
本发明的发明目的在于:针对前景目标未被遮挡的场景,提供一种多视角图像中目标检测方法,以实现对无遮挡目标在复杂背景场景下的目标检测与提取。
本发明针对前景目标未被遮挡的场景,计算多个视角图像的显著性图,将两侧视角的显著性图投影到中间目标视角,消除投影图中由于像素离散映射产生的不闭合细纹,得到两侧视角的影显著性图;并将两侧视角的投影显著性图与中间视角的显著性图融合,得到融合显著性图;将投影产生的空洞区域视为背景区域,在融合显著性图中消除;利用投影空洞划分对融合显著性图进行图像划分,将投影空洞和边缘之间的区域以及不同物体的投影空洞之间的区域视为背景,在融合显著性图中消除;对融合显著性图二值化,得到目标检测结果。
本发明的一种基于视觉显著性的多视角图像目标检测方法,包括下列步骤:
步骤1:输入前景目标未被遮挡的同一场景的左、中、右视角图像,并计算各视角图像的显著性图,得到左、中、右显著性图;
步骤2:分别将左、右显著性图依像素投影到中视角图像,得到左、右投影图,同时记录投影时的投影空洞区域;分别消除左、右投影图中的不闭合细纹得到左、右投影显著性图;
步骤3:将左、右投影显著性图和中显著性图进行图像融合,得到融合显著性图,并在融合显著性图中将记录的投影空洞区域的显著性消除;
步骤4:基于记录的投影空洞区域对融合显著性图进行图像划分,将投影空洞和边缘之间的区域、以及不同图像物体的投影空洞之间的区域作为背景区域,并在融合显著性图中消除所述背景区域的显著性;
步骤5:步骤4处理后的融合显著性图进行二值化处理,输出目标检测结果。
与现有技术相比,本方法针对前景不被遮挡的场景,能够更好的抑制背景,得到背景干扰小、边缘清晰的显著目标。
附图说明
图1本发明具体实施方式的流程图。
图2左右视角到中视角的投影示意图。
图3细纹修复示意图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610712411.2/2.html,转载请声明来源钻瓜专利网。