[发明专利]一种基于鱼眼相机的密集场景下抗遮挡的物体检测方法在审
| 申请号: | 202210335755.1 | 申请日: | 2022-03-31 |
| 公开(公告)号: | CN114972170A | 公开(公告)日: | 2022-08-30 |
| 发明(设计)人: | 康文雄;许鸿斌;王略权 | 申请(专利权)人: | 华南理工大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/70;G06T5/00;G06N3/04;G06N3/08 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 何淑珍 |
| 地址: | 510640 广*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 相机 密集 场景 遮挡 物体 检测 方法 | ||
本发明提供了一种基于鱼眼相机的密集场景下抗遮挡的物体检测方法,包括以下步骤:在原始场景中采集原始图像并进行标注,获得单物体的掩膜;基于物体掩膜,根据基于物体之间的空间位置关系的遮挡关系和预设的遮挡优先级合成图像,获得合成数据集;根据物体的识别难度,将合成数据集划分为识别难度不同的多个子数据集;对合成数据集进行数据增强;采用数据增强后的合成数据集训练物体检测网络;将待检测图像输入训练好的物体检测网络中,获得物体检测结果。本发明能极大降低数据的采集成本,并可以可以随意的增加不同的种类,用于模拟各种可能的遮挡,提升复杂场景下的物体检测准确率。
技术领域
本发明属于计算机视觉技术领域,涉及一种基于鱼眼相机的密集场景下抗遮挡的物体检测方法。
背景技术
受益于深度学习的快速发展和卷积神经网络的强大学习能力,只要提供足够多的训练数据以及与其对应的样本标签,网络模型便可以在不断迭代学习的过程中实现很好的性能,并可被用于各式各样的实际应用中,如目标检测、语义分割、人脸识别等等。相对地,网络模型往往也反过来受限于有限的数据集。对于一些特殊场景,数据的采集可能十分困难,或者数据的标注也十分困难,导致只能采集到少量的数据。少量的数据无法提供充足的监督信息训练模型,导致在实际场景下效果较差。
由于鱼眼相机的广角视野特性,其拍摄的图像往往存在自中心发散开来的不同程度的图像畸变,增加了图像识别的难度。此外,如果鱼眼相机图像中还存在复杂且剧烈的遮挡关系,并与图像畸变耦合在一起,会进一步增加图像识别及物体检测的难度。但是,在现实场景中,复杂的遮挡关系以及剧烈的图像畸变包含了大量的变化,导致难以像此前的方法一样,仅通过采集大量数据集来模拟所有可能的情况。
发明内容
针对现有技术中存在的问题,本发明提供一种基于鱼眼相机的密集场景下抗遮挡的物体检测方法。
为了实现本发明目的,本发明提供的一种基于鱼眼相机的密集场景下抗遮挡的物体检测方法,包括以下步骤:
在原始场景中采集原始图像并进行标注,获得单物体的掩膜;
基于物体掩膜,根据基于物体之间的空间位置关系的遮挡关系和预设的遮挡优先级合成图像,获得合成数据集;
根据物体的识别难度,将合成数据集划分为识别难度不同的多个子数据集;
对合成数据集进行数据增强;
采用数据增强后的合成数据集训练物体检测网络;
将待检测图像输入训练好的物体检测网络中,获得物体检测结果。
进一步地,所述在原始场景中采集原始图像,包括:
将原始场景划分为M行N列,在划分后的原始场景的指定位置采集原始图像;
将划分后的原始场景随机旋转T次,并分别采集图像,总计采集得到M·N·T·K张单物体图像。
进一步地,所述根据基于物体之间的空间位置关系的遮挡关系为,以掩膜位置与鱼眼相机成像中心的相对位置关系来确定不同物体之间的遮挡关系,距离中心位置较远的物体会被距离中心较近的物体遮挡。
进一步地,所述预设的遮挡优先级中,采用数值来表示遮挡优先级,数字从小到大表示遮挡优先级,遮挡优先级越高表示越有可能遮挡周围的物体。
进一步地,所述根据物体的识别难度,将合成数据集划分为识别难度不同的多个子数据集中,根据物体个数来衡量识别难度。使用物体个数来衡量遮挡关系的复杂程度与识别物体的难度。由此可以划分为难分样本与易分样本。对于易分样本来说,出现的物体个数较少,遮挡关系简单,在训练中较易拟合;对于难分样本来说,出现的物体个数很多,遮挡关系错综复杂,在训练中较难拟合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210335755.1/2.html,转载请声明来源钻瓜专利网。





