[发明专利]一种基于主动标注的鲁棒深度图像分类模型训练方法在审
申请号: | 202210135383.8 | 申请日: | 2022-02-15 |
公开(公告)号: | CN114187452A | 公开(公告)日: | 2022-03-15 |
发明(设计)人: | 黄圣君;周慧 | 申请(专利权)人: | 南京航空航天大学 |
主分类号: | G06V10/30 | 分类号: | G06V10/30;G06V10/774;G06V10/764;G06K9/62 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 柏尚春 |
地址: | 210016 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 主动 标注 深度 图像 分类 模型 训练 方法 | ||
本发明公开了一种基于主动标注的鲁棒深度图像分类模型训练方法。包括:一、收集大量的无标注图像集合和少量已标注训练图像数据集合;二、对已标注图像集中的每一个图像增添噪声扰动,得到含噪标注图像集;三、将含噪标注图像集作为训练集,初始化图像分类模型;四、对未标注图像集中每张图像进行多次扰动,计算每张未标注图像的价值评分S。五、对评分S排序,得到相应的用户反馈;六、更新已标注图像集L和未标注图像集,并更新预测模型;七、返回步骤四或结束并输出预测模型f。本发明通过主动学习技术,自动选择高效用图像标注,在提升模型鲁棒性的同时,能最大限度地降低用户的标注代价。
技术领域
本发明属于数字图像自动标注技术领域,具体涉及一种基于主动标注的鲁棒深度图像分类模型训练方法。
背景技术
现阶段在图像分类领域深度模型已经能够获得较高的精度,然而在现实应用场景中,模型往往受到噪声干扰而导致性能严重下降。例如,在自动驾驶任务中,图像视频识别模型通常会受到雾、霜、雪、沙尘暴等天气的干扰,而难以准确地识别出路标。因此,提高模型的鲁棒性已经成为机器学习领域的重要任务。最新的研究表明,通过对训练图像添加噪声扰动进行训练能有效地提升深度模型的鲁棒性。然而,该训练过程往往需要大量已标注图像。在许多实际应用中,准确地标注每张图像的标记信息往往代价高昂且异常困难,尤其是那些对专业知识要求很高的领域。主动学习是降低样本标注代价的主要方法,其通过主动选择最有价值的图像进行标注,在提高模型性能的同时,能最大限度地降低查询标记的代价。然而传统的主动标注方法仅考虑了图像用以提升模型性能的潜在效用,例如,通过衡量分类模型对于未标注图像的不确定性来作为其效用的一个估计,难以直接用于提升模型鲁棒性。因此,如何设计有效的主动标注策略以提升模型的鲁棒性是一个亟待解决的问题,具有重要的现实意义。
发明内容
发明目的:为了克服真实任务中目标域数据获取困难,模型鲁棒性难以提升的问题,本发明提供一种基于主动标注的鲁棒深度图像分类模型训练方法。
技术方案:为实现上述目的,本发明采用的技术方案为:
一种基于主动标注的鲁棒深度图像分类模型训练方法,包括以下步骤:
步骤1、收集大量的无标注图像集合,和少量已标注训练图像数据集合;
步骤2、对已标注图像集中的每一个图像增添噪声扰动,得到含噪标注图像集;
步骤3、将含噪标注图像集作为训练集,初始化图像分类模型f;
步骤4、对未标注图像集中每张图像进行多次扰动,基于模型f对每张未标注图像及其多个扰动版本的预测结果,计算每张未标注图像的价值评分;
步骤5、对步骤4中得到的评分排序,在标记预算内,根据分值从大到小的顺序向用户查询图像的标注信息,得到相应的用户反馈;
步骤6、 根据步骤5中得到的图像类别的用户反馈结果更新已标注图像集和未标注图像集,并按照步骤2方法得到的含噪标注集以更新预测模型;
步骤7、返回步骤4或结束并输出预测模型f。
进一步的,所述步骤2得到含噪标注图像集的具体方法为:
对于中每一张图像添加从从高斯分布随机标注的扰动值得到对应的含噪图像。具体可以表达为:
则含噪声标注图像集,其中为已标注图像数量。
进一步的,所述步骤3初始化图像分类模型f的具体方法为:
利用预测模型对含噪标注图像集中图像类别进行预测,为预测模型的参数。用表示第幅图像在模型f上的输出, 其中代表图像被预测为第个类别的概率,代表图像总类别数。用表示第幅图像的真实标记,形式为one-hot编码。按照公式计算模型在每张含噪图像上的损失值,所述公式为:
通过最小化模型在含噪标注图像集上损失值来优化模型,具体公式为:
,其中,为损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京航空航天大学,未经南京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210135383.8/2.html,转载请声明来源钻瓜专利网。