[发明专利]一种基于平均损失和逐类选择的弱监督图片分类方法有效
申请号: | 202110399477.1 | 申请日: | 2021-04-14 |
公开(公告)号: | CN113283467B | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 王魏;桂贤进 | 申请(专利权)人: | 南京大学 |
主分类号: | G06V10/774 | 分类号: | G06V10/774;G06V10/764;G06V10/82;G06N3/04 |
代理公司: | 南京乐羽知行专利代理事务所(普通合伙) 32326 | 代理人: | 李玉平 |
地址: | 210023 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 平均 损失 选择 监督 图片 分类 方法 | ||
本发明公开一种基于平均损失和逐类选择的弱监督图片分类方法,基于图片样例的平均损失,从带噪标记图片数据中逐类选择出低风险的数据,并将剩下未被选中的高风险图片样例视为未标记数据,利用弱监督学习技术将选中的低风险数据和未标记数据进行混合生成更多的伪标记数据扩充训练集。在混合过程中,需要对选出的低风险图片样例根据损失值的大小设置权值,并基于加权重采样技术来进一步降低风险。利用生成的伪标记数据训练深度神经网络最终得到高性能的图片分类器。本方法可以应用于各种弱监督条件下基于带有噪声标记图片数据的学习,具有较好的效果。
技术领域
本发明涉及一种基于平均损失和逐类选择的弱监督图片分类方法,该方法能够利用带有噪声标记的图片数据训练深度神经网络模型获得较好性能的图片分类器,属于计算机人工智能数据分析技术领域。
背景技术
近年来,深度学习在计算机视觉邻域(例如:图像分类,物体检测,实例分割等任务)取得了极大的成功。然而,深度神经网络的训练通常需要大规模具有精确标记的数据。雇佣领域专家来给未标记数据提供精确的标记需要耗费大量的时间,且标注成本高昂,因此近来出现了一些快速且廉价地获取数据标记的方法,例如:众包、网络爬虫和图片搜索引擎等。然而,这些方法提供的标记往往带有噪声,即标记信息很有可能出现错误。不加处理地直接利用带有噪声标记的数据学习会严重影响深度神经网络的性能。因此,发展有效的弱监督学习技术利用可快速且廉价获取的带有噪声标记数据至关重要。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提出了一种基于平均损失和逐类选择的弱监督图片分类方法,该方法基于样例的平均损失从带有噪声标记图片数据集中逐类选择出低风险图片数据,同时把剩下未被选中的样例视为未标记图片数据。接下来,基于MixMatch技术对低风险图片数据和未标记图片数据进行混合生成新的伪标记图片数据扩充训练集;在图片数据混合过程中,基于平均损失对标记图片数据设置权值并进行加权重采样,以进一步降低图片数据风险。本发明能充分地利用易获取的带有噪声标记图片数据进行学习,消除图片数据集中错误标记对深度神经网络模型的影响,获得具有较强性能的图片分类器,能够较为准确地对未见图片进行分类,具有很大的实用价值。
技术方案:一种基于平均损失和逐类选择的弱监督图片分类方法,包括如下内容:
首先,通过众包、网络爬虫或者图片搜索引擎等手段建立一个带有噪声标记图片数据库作为训练数据集。
接着,用户选定一种常用的深度神经网络模型(例如,深度残差网络等)作为图片分类器模型。使用该模型利用随机梯度下降算法在带有噪声标记训练数据集上训练预定的轮数,并记录每一轮结束时每个样例的损失值大小;然后计算出每个样例在训练过程中的平均损失值的大小,对每个类别的样例按照其平均损失值的大小进行排序;根据逐类选择技巧,从带噪标记图片数据集中为每个类挑选出预设数量的平均损失最小的样本,并把剩下未被选中的样本视为未标记图片数据,至此完成样本的筛选过程。
接下来,基于MixMatch技术对低风险带标记图片数据和未标记图片数据进行混合生成新的伪标记图片数据扩充训练集;在这一图片数据混合的过程中,基于样例的平均损失值对带标记图片数据设置权值并进行加权重采样,以进一步降低带标记图片数据的风险。
接下来,在新生成的伪标记图片数据集上,通过随机梯度下降算法重新进行深度神经网络模型的训练,直到网络收敛。最后在预测阶段,用户将待测图片输入给深度神经网络模型,模型返回该图片属于每个类别的概率并输出对应概率值最高的那个类别作为预测类别。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京大学,未经南京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110399477.1/2.html,转载请声明来源钻瓜专利网。