[发明专利]一种更快的基于深度学习的密集目标计数方法在审
申请号: | 201811553198.0 | 申请日: | 2018-12-19 |
公开(公告)号: | CN109741301A | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 许向阳;余睿 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06T7/00 | 分类号: | G06T7/00 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 场景 图像处理领域 安全事故 工作效率 计数领域 计数问题 检测结果 快速检测 目标整合 轻便设备 人流控制 实时监控 网络结构 检测 学习 应用 钢筋 人群 移动 保证 研究 | ||
本发明涉及到图像处理领域,更具体地,涉及一种更快的基于深度学习的密集目标计数方法。近年来深度学习在密集目标计数领域取得了不错的发展,但是存在着模型较大检测速度较慢的问题,且大多数的研究只针对特定场景,无法很快应用到其他场景。本发明提出了一种更小的网络结构,不仅保证了一定的准确性,还大大增加了检测速度,将具备搭载到移动手持等轻便设备的可能性。而且为了处理更多的场景,将不同的密集目标整合一起训练,检测结果也保持稳定。这样就可以在实际应用中处理多种场景的密集目标计数问题,例如实时监控商场的人群数目来做出相应的人流控制,防止出现安全事故,快速检测工厂里的钢筋数目将大大增加工作效率带来更大的效益。
技术领域
本发明涉及到图像处理领域,更具体地,涉及一种更快的基于深度学习的密集目标计数方法。
背景技术
由于近年来深度学习技术研究地飞速发展,越来越多的问题在利用到深度学习技术之后获得了新的机遇。而在本发明所涉及到的密集目标计数领域中,涉及到多种复杂的场景,包括商场的人群,街道的车流,草原的牛群,工厂里的密集钢筋等等。若能快速的统计数目,不仅可以及时调节商场和街道的秩序防止安全事故发生,也可以提高工厂等企业的工作效率来增大效益。
传统的目标计数方法往往基于检测的方法,根据目标的运动特征和纹理特征准确识别出每个目标的具体位置信息来进行计数,但是由于密集目标的重叠遮挡情况非常严重,无法进行检测。后来基于全局特征的回归方法首先建立图像特征和图像人数的回归模型,通过测量图像特征从而估计场景中的人数,但是由于密集图像特征复杂依旧效果不好。
而基于深度学习的技术不再考虑复杂的特征处理操作,借助复杂多样且高效的卷积操作对图片进行处理,而且将密度图作为转换的中介大大增强了整体系统的鲁棒性,使不同复杂场景的密集目标的计数准确性得到了进一步地提升。
发明内容
本发明的主要优势是在基于强大的深度学习技术上提出一种全新的网络结构组合,能够克服传统图像处理在密集目标计数上的不足。不仅无需对图像本身进行前景背景分割等复杂过程,而且还能利用新的特征网络让密集目标的密度特征信息得到更多的保留,大大增加了最终的计数准确率。同时由于设计的神经网络结构所需参数量大幅度地降低,使计算速度变得更快,将具备加载到移动手持等轻便设备的可能。而且整合了不同场景的密集目标数据,一起训练处理后得到的测试结果依旧稳定,这样便可以同时处理多种场景的密集目标计数问题。为了达到以上目的,本发明将采取以下步骤:
(1)预处理
由于目前公开数据集有限,于是自主制作了一些相关的密集目标图片,为了保持一致性,所拍摄的图像的实际目标所占比例较小,且重合率较大,最终添加到公开数据集里一起。
首先为原始图像生成相应的密度图。对图像上所有目标位置进行人工标记,一般认定为该目标所占像素点区域的重心位置为标记点。使某一个目标的标记记作Pi(xi,yi),并将其表示为δ(x-xi),这样对于具有 N个目标的的图像I,这样对于具有N个目标的的图像I,为了使密度图具有连续性,进行归一化高斯处理。接着引入高斯核函数Gσ(x),但是由于在复杂场景中目标之间的关联性较大,而且由于透视失真导致某个目标点与周围目标在不同复杂场景区域的尺度不一致,所以为了更加精准地估计,利用k近邻算法的思想,使用该目标与周围目标距离的平均距离作为参照量,来估计高斯函数中σ参数。
对于每一个目标点,求去其于周围k个目标的平均欧式距离而对于不同区域的高斯核的σ参数也是随着区域的改变而改变,所以需要设置一个自适应的高斯核,那么由于目标区域的半径与存在线性比例关系,则通过实验经验设置(β=0.3),则最终的密度图转换函数可表示为式1:
(2)创立训练样本
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811553198.0/2.html,转载请声明来源钻瓜专利网。