[发明专利]基于深度网络增强的特定场景下行人检测器自动学习方法有效
申请号: | 201810264330.X | 申请日: | 2018-03-28 |
公开(公告)号: | CN108549852B | 公开(公告)日: | 2020-09-08 |
发明(设计)人: | 郑慧诚;何炜雄;谢晓华 | 申请(专利权)人: | 中山大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 刘巧霞 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 网络 增强 特定 场景 行人 检测器 自动 学习方法 | ||
本发明公开了一种基于深度网络增强的特定场景下行人检测器自动学习方法,步骤是:在服务器端使用通用的数据集训练出第一神经网络和第二神经网络,第二神经网络部署到嵌入式设备中;通过嵌入式设备对当前场景的图像进行捕捉,获得新增图像样本,传送到服务器端;在服务器端利用之前训练好的第一神经网络对新增图像样本进行测试,根据测试得分对样本进行标注;估计当前高度行人检测框的大小,剔除正样本中检测框和估计的大小有明显差异的样本,保留剩余样本;服务器端对第二神经网络进行调优;将调优后的第二神经网络模型从服务器端重新部署到嵌入式设备中。本发明可以在特定场景下快速得到精准的行人检测模型。
技术领域
本发明涉及视频监控中行人检测研究领域,特别涉及一种基于深度网络增强的特定场景下行人检测器自动学习方法。
背景技术
随着摄像头监控范围的逐步扩大,怎么利用摄像头采集到的数据分析行人的行为、动作、轨迹已经成为当今社会的一个急切的需求,而这些需求的技术基础则是行人检测。行人检测由行人检测器来完成,行人检测器的任务是对当前场景下行人的位置进行估计,其在行人跟踪、行人识别等摄像头监控领域具有非常重要的作用。由于光照变化、摄像头角度变化、行人姿势变化等因素,行人检测到目前仍然是一个十分具有挑战性的问题。
近年来在这方面有了非常大的进步,包括传统的HOG特征以及SVM分类器应用在行人检测已经取得不错的效果,最近的基于卷积神经网络的研究由于对于样本分布有着比较好的学习能力,因此更是将行人检测器的性能推进到了一个新的高度。
然而,尽管当前这些研究都可以在行人检测这个问题上取得非常好的效果,但是这些基于学习的方法训练得到的行人检测器效果很大程度依赖训练集的分布,因此在另外的特定场景下工作时,由于测试集的分布和训练集的分布有着非常大的差异,这些差异可能来自场景的遮挡、图像质量等等,行人检测器的性能将会变得很不理想。另一方面,如果采取人工标注的方法去采集每一个特定场景下的数据来对模型进行训练的话,这样无疑是非常浪费人力的,当行人检测器的数量非常大的时候,这样的方法是不可取的。因此,如何利用自动学习方法来提高行人检测器对于特定场景下的适应能力是一个关键性问题。
现有的方法主要有以下几类的方法:
(1)基于上下文信息、行人大小的方法。参见Xiaogang Wang,Meng Wang,and WeiLi:Scene-Specific Pedestrian Detection for Static Video Surveillance,IEEETPAMI 36(2014)361–374。该类方法中,对当前场景以及行人大小进行建模,得到当前检测框为正样本以及负样本的概率,使用这种方法获得的正负样本来训练一个SVM分类器。
(2)基于半监督和辅助检测器的方法。参见Si Wu,Shufeng Wang,RobertLaganiere,Cheng Liu,Hau-San Wong,and Yong Xu:Exploiting Target Data to LearnDeep Convolutional Networks for Scene-Adapted Human Detection,IEEE TIP(2017)。该类方法中,对于特定场景下有少量的正负样本的情况,通过少量的样本来训练一个辅助检测器,通过辅助检测器的输出得到来对更多的未标记进行标记,最后使用这些样本来训练一个用于该场景的模型。
上述方法尚存在很多不足之处。首先,基于行人大小、背景建模等上下文信息来获得当前场景下的正负样本的,由于这样的信息并没有非常可靠,因此通过这样的方法来获得的样本拥有着比较大的噪声。同时,使用半监督的方法需要有一定数量由人工标注的样本,这样无疑是非常费时费力的。
发明内容
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810264330.X/2.html,转载请声明来源钻瓜专利网。