[发明专利]基于自监督过程改进主动学习的通用物体检测系统及方法有效
申请号: | 201810623784.1 | 申请日: | 2018-06-15 |
公开(公告)号: | CN108985334B | 公开(公告)日: | 2022-04-12 |
发明(设计)人: | 林倞;王可泽;王青;严肖朋 | 申请(专利权)人: | 拓元(广州)智慧科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06V10/774;G06V10/778;G06V10/82;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 511455 广东省广州市南沙区丰泽东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 监督 过程 改进 主动 学习 通用 物体 检测 系统 方法 | ||
本发明公开了一种基于自监督过程改进主动学习的通用物体检测系统及方法,该系统包括:样本获取单元,获取少量标注样本和海量未标注样本;模型建立及初始化单元,建立深度学习物体检测模型,并利用少量标注样本初始化深度学习物体检测模型;自监督学习单元,引入自监督学习课程指导自监督学习过程挖掘海量未标注样本中的高置信度样本自动进行伪标注,并对伪标注过的样本进行图像交叉验证,进行图像贴图重新预测,交叉投票选择出高预测一致性的伪标注样本;主动学习单元,引入主动学习课程指导主动学习过程挖掘海量未标注样本中的低置信度样本进行人工标注;模型训练单元,用于将选择的高预测一致性的伪标注样本和人工标注的样本训练模型以提升模型性能。
技术领域
本发明涉及物体检测及深度学习技术领域,特别是涉及一种基于自监督过程改进主动学习的通用物体检测系统及方法。
背景技术
近年来,随着互联网的快速发展和计算能力的提升,受益于大规模训练数据的深度学习技术取得了突破性的进步。物体检测作为计算机视觉领域的一个经典任务,检测精度取得了巨大的提升。以候选区域为基础的物体检测网络对一张输入的图像提取大量的候选物体区域,并对这些区域进行类别标注和位置回归,提升了物体检测的识别精度和识别速度。然而,神经网络的检测效果极其依赖训练网络的标注样本数据,因此,如何利用大规模的未标注或是少量标注的数据有效训练网络,提升其检测精度是亟待解决的问题。
为了使用更少的标注数据训练出高精度的检测模型,一般需要解决以下技术问题:
1)在保证模型效果的同时,尽量减少人工样本标注。通常的神经网络训练,非常依赖大量人工标注的数据集,而比起其他视觉任务(例如,图像分类和动作识别),标注物体需要提供图片中所有物体的类别标签和物体所处区域的边框坐标。因此,对图像进行人工标注非常耗时耗力,发展自动标注无标签数据的方法是减少人工标注负担的关键步骤。
2)挖掘能够显著提高分类器表现的特殊训练样本。现有的物体检测数据集通常包含了绝大多数普通的“简单”样本和少量有益的“困难”样本(即,富含各种光照,变形,遮挡和类内变化的信息量)。因为他们服从长尾分布,“困难”的例子是罕见的,为了利用这些能够最有效训练神经网络的“困难”样本,需要能够从大量样本中将其识别出来。
3)抑制坏样本的负面影响。一些训练样本(例如,离群点或噪声样本)可能会使模型发生偏移,在训练时排除被数据集中的标注者标记为“混乱”的样本后,训练得到的物体检测性能可以得到大幅度的改进和提高。
发明内容
为克服上述现有技术存在的不足,本发明之目的在于提供一种基于自监督过程改进主动学习的通用物体检测系统及方法,以结合样本挖掘技术和深度学习物体检测技术,利用少量标注的样本和海量的未标注样本联合训练提升模型的检测性能以提高检测精度,本发明可在减少大量的人力物力、节约成本基础上实现通用物体检测目的。
为达上述及其它目的,本发明提出一种基于自监督过程改进主动学习的通用物体检测系统,包括:
样本获取单元,用于获取少量标注样本和海量未标注样本;
模型建立及初始化单元,用于建立深度学习物体检测模型,并利用少量的标注过的样本初始化所述深度学习物体检测模型;
自监督学习单元,用于引入自监督学习课程指导自监督学习过程挖掘海量未标注样本中的高置信度样本自动进行伪标注,并对伪标注过的样本进行图像交叉验证,进行图像贴图重新预测,交叉投票进一步选择出高预测一致性的伪标注样本;
主动学习单元,用于引入主动学习课程指导主动学习过程挖掘海量未标注样本中的低置信度样本进行人工标注;
模型训练单元,用于将选择的高预测一致性的伪标注样本和人工标注的样本训练模型以提升模型性能。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于拓元(广州)智慧科技有限公司,未经拓元(广州)智慧科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810623784.1/2.html,转载请声明来源钻瓜专利网。