[发明专利]一种面向密集人群的深度行人检测方法有效
申请号: | 201811593155.5 | 申请日: | 2018-12-20 |
公开(公告)号: | CN109766796B | 公开(公告)日: | 2023-04-18 |
发明(设计)人: | 黄增喜;王晓明;杜亚军;于春 | 申请(专利权)人: | 西华大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V40/10;G06V10/25 |
代理公司: | 四川君士达律师事务所 51216 | 代理人: | 芶忠义;罗奇 |
地址: | 610039 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 密集 人群 深度 行人 检测 方法 | ||
本发明属于图像及视频处理技术领域,尤其为一种面向密集人群的深度行人检测方法,包括以下几个步骤:采用基于全局特征的卷积神经网络提取图像中行人候选框,根据置信分数和相互交叠程度,从中定位人群图像区域,并选择出较可靠独立行人和非独立行人目标;对人群区域图像进行自适应尺度变换后合并成一幅紧凑人群图像,采用基于局部特征的自底向上卷积神经网络提取人群中的行人关键点集;检测并排除虚假行人关键点后定位行人,与非独立行人目标进行比较分析后得到人群中的行人检测结果。本发明,在基于全局特征的深度行人检测基础上,定位人群图像区域,采用基于行人关键点的自底向上深度行人检测方法,避免了对非极大值抑制类方法和技术的依赖,并综合了两类深度行人检测方法的优势,从而提高密集人群中行人检测的准确性和定位精度。
技术领域
本发明属于图像及视频处理技术领域,具体涉及一种面向密集人群的深度行人检测方法。
背景技术
目标检测的任务是从图像或视频中检测和定位特定种类目标,是计算机视觉领域的核心问题之一。行人检测是目标检测的重要分支,该技术可与行人跟踪,行人重识别等技术结合,广泛应用于车辆辅助驾驶系统、智能视频监控和人体行为分析等领域。由于行人兼具刚性和柔性物体的特性,外观易受穿着、尺度、姿态、视角和遮挡等影响,使得行人检测成为计算机视觉领域中一个极具挑战性的课题。
近年来,深度神经网络模型如RCNN、YOLO、SSD等凭借大规模数据和强大的端到端学习能力,能够较好地学习图像中行人的不变特征,显著提高行人检测的准确性。深度神经网络模型通常在行人目标附近获得稠密的行人候选框,然后采用非极大值抑制方法或类似手段消除多余候选框并最终确定行人目标图像区域。非极大值抑制的结果与行人候选框之间的交并比阈值IoU(Intersection over Union)设置有关,在密集人群情况下,行人间距小且存在严重的相互遮挡,过低的IoU阈值会带来行人漏检,而过高的IoU阈值则易造成虚警,因此,密集人群中的行人检测仍然是一个亟待解决的问题。
本发明的目的在于改善上述现有技术存在的缺陷,提出一种面向密集人群的深度行人检测方法,该方法在基于全局特征的深度行人检测基础上,定位人群图像区域,采用基于行人关键点的自底向上深度行人检测方法,避免了对非极大值抑制类方法和技术的依赖,并综合了两类深度行人检测方法的优势,从而提高密集人群中行人检测的准确性和定位精度。
发明内容
为解决上述背景技术中提出的问题。本发明提供了一种面向密集人群的深度行人检测方法,具有能够提高密集人群中行人检测的准确性和定位精度的特点。
为实现上述目的,本发明提供如下技术方案:一种面向密集人群的深度行人检测方法,包括以下几个步骤:
S1、采用基于全局特征的卷积神经网络提取图像中行人候选框,合并相互交叠程度大于给定阈值的候选框形成若干个大人群图像区域候选框;对原行人候选框使用非极大值抑制方法进行过滤,选择出高置信分数行人检测框;将高置信分数行人检测框与人群候选框进行比较分析,确定人群图像区域;根据行人与人群区域的关系,将高置信分数行人检测框划分为独立行人和非独立行人;
S2、根据所包含非独立行人及行人候选框个数,对每一人群区域图像进行自适应尺度变换,对大尺度人群区域图像块进行图像自适应下采样,对小尺度人群区域图像块进行图像自适应超分辨率;将尺度调整后的人群图像块合并成一幅紧凑人群图像,新图像中人群图像块之间不相连通;采用基于局部特征的自底向上卷积神经网络提取人群中行人的关键点集;将关键点坐标映射到原图像后得到人群中每一行人的关键点集;
S3、检测并排除虚假行人关键点后定位行人,并与非独立行人目标进行比较分析后确定人群中的行人目标,与独立行人目标一起构成最终行人检测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西华大学,未经西华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811593155.5/2.html,转载请声明来源钻瓜专利网。