[发明专利]一种用于监控视频车辆检测的半监督带噪声学习方法有效
申请号: | 202110348338.6 | 申请日: | 2021-03-31 |
公开(公告)号: | CN113033679B | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 王好谦;刘伟锋 | 申请(专利权)人: | 清华大学深圳国际研究生院 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06V10/764;G06V10/774;G06V20/40 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 孟学英 |
地址: | 518055 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 用于 监控 视频 车辆 检测 监督 噪声 学习方法 | ||
本发明提供一种用于监控视频车辆检测的半监督带噪声学习方法,包括:在公开的目标检测数据集上采用c角监督方法同时训练c个标注器;用c个标注器在不带标签的业务数据上进行推断得到c组检测结果,分别计算每个车辆包围框的置信度加权平均值作为整体输出结果作为业务数据的集成标签;公开的目标检测数据集和带集成标签的业务数据混合得到混合数据集,混合数据集包含图片和标签,图片和标签分别来自于公开的目标检测数据集和业务数据且保持图片和标签的对应关系,在混合数据集上采用全监督方式训练校正器,校正器输出校正标签;将混合数据集的标签替换为校正标签,采用全监督方式训练推断器;采用推断器实时处理监控视频流检测出车辆。
技术领域
本发明涉及计算机视觉与数字图像处理技术领域,尤其涉及一种用于监控视频车辆检测的半监督带噪声学习方法。
背景技术
目标检测,是指对图像中所有物体进行定位,并将其分类到正确的类别中。在众多的视觉应用中,这是一个基本的任务。高层次的活动分析通常建立在此步骤之上。此外,智能交通系统(ITS)是解决当前交通问题的理想方案。道路监控视频每时每刻生成大量视频数据,而目前使用的分析方法是人工观察,效率低下且耗费大量人力物力财力。借助目标检测算法,有望快速完成分析任务,节省大量劳动力。在视频中对车辆进行检测,是交通事故检测和车辆再识别等后续任务的基础。例如,可以根据检测到的车辆包围框计算出时间轨迹,再利用特定的后处理逻辑,只用极少人力就可以找到大规模监控视频中带有事故的视频片段。这样的算法可以帮助交管部门和保险公司等分析交通事故的发生原因和确定事故的责任主体。此外,车辆再识别有助于发现肇事逃逸车辆。
目前效果较好的目标检测算法,大多使用基于全监督学习的深度模型,需要大量的标注数据进行训练。而遮挡和光照等条件在视频中差别很大;在密集的场景中,大量的小物体经常被遮挡,这是检测模型难以处理的。因此需要大量具有场景多样性的训练数据。然而,公开数据集的大小有限,并且实际应用场景经常与公开数据集的场景有很大不同。如果只在公开数据集上训练模型,过拟合就会很明显。一些公司在使用深度学习技术时,会自行对特定应用场景下的数据进行标注。然而,由于视频数据的规模较大,标注成本比图像分类等数据集高得多。所以,用尽可能少的预算获取大量的标注数据是一个挑战。
许多应用场景要求检测模型实时运行,甚至要求模型只在计算资源非常有限的移动设备上运行。通常情况下,大模型不能满足速度要求,而小模型的检测精度不足。需要在推理速度和检测精度之间取得适当的平衡。
对特定应用场景下的数据进行标注,费时费力。而未标注的数据很容易获得。半监督学习方法,充分利用少量的有标注数据和大量的无标注数据,能获得与使用大量标注数据的全监督方法训练得到的模型相近的效果。
COCO等公开数据集的标注结果中,存在一定的错误或不合理之处。而半监督学习方法,一般用深度网络代替标注员得到标签,这些标签的准确率一般明显低于人工标签。现有的半监督学习算法一般未显式地处理标签中的噪声,在后续训练模型的过程中造成了不良影响。
以上背景技术内容的公开仅用于辅助理解本发明的构思及技术方案,其并不必然属于本专利申请的现有技术,在没有明确的证据表明上述内容在本专利申请的申请日已经公开的情况下,上述背景技术不应当用于评价本申请的新颖性和创造性。
发明内容
本发明为了解决现有的问题,提供一种用于监控视频车辆检测的半监督带噪声学习方法。
为了解决上述问题,本发明采用的技术方案如下所述:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳国际研究生院,未经清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110348338.6/2.html,转载请声明来源钻瓜专利网。