[发明专利]一种多任务联合集成的小样本图像分类方法在审
申请号: | 202210384018.0 | 申请日: | 2022-04-13 |
公开(公告)号: | CN114821163A | 公开(公告)日: | 2022-07-29 |
发明(设计)人: | 张睿;杨义鑫;李阳;王家宝;苗壮;王梓祺 | 申请(专利权)人: | 中国人民解放军陆军工程大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/74;G06V10/774;G06V10/40;G06F16/53 |
代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 韩红莉 |
地址: | 210014 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 任务 联合 集成 样本 图像 分类 方法 | ||
本发明公开了一种多任务联合集成的小样本图像分类方法,包括:将待分类支撑集进行数据增广得到多组增广支撑集;将多组增广支撑集和待分类查询集输入预先训练得到的多任务联合集成网络,得到多组支撑集特征和查询集特征;利用多组支撑集特征计算类别中心,计算查询集特征与每组类别中心的欧式距离,得到多组相似性分数;采用非极大值抑制的方式处理相似性分数,并使用预先设定的融合方式集成所有相似性分数,得到最终的输出结果。本发明中多任务联合集成网络能够学习样本的多重属性,进一步提高了多任务联合集成网络学习的效果,提升了小样本图像分类任务的精度,能够更好地完成小样本图像分类任务。
技术领域
本发明涉及一种多任务联合集成的小样本图像分类方法,属于计算机视觉与图像分类技术领域。
背景技术
大规模数据集是深度学习在各个领域取得显著成效的基石,然而,以深度学习为代表的图像分类技术大多依赖于大数据,缺乏数据会导致基于深度学习的图像分类技术出现过拟合等问题。小样本图像分类算法是一种用来解决因缺乏数据造成模型过拟合的方法,该方法能够在少量样本的条件下完成分类任务。小样本图像分类并不局限于识别已知样本,更关注于模型的泛化能力,强调对未知样本的识别效果,因此被广泛应用于各类图像分类系统中。
通常小样本图像分类算法可以分为元学习和度量学习。元学习注重模型的优化过程,通常不学习固定的分类任务,而是在大量不同的任务中找到平衡点。元学习虽然可以基于少量样本适应新的类别,但是对网络结构的鲁棒性较差,同时训练时会消耗大量计算资源。度量学习是一种端到端的训练方式,不需要二次微调就可以适应新的任务,并且相对于元学习方法,度量学习面对复杂的神经网络时,也能够表现出优异的性能。因此,基于度量学习的小样本图像分类方法成为当前的研究热点,受到广泛关注。
当前,基于度量学习的小样本图像分类方法中,只学习单一的类别任务,模型无法学习到样本的其他属性,如目标的姿态、角度和类型等。例如,申请号201810980846.4,公开号为CN109376578A的中国专利中提出了一种基于深度迁移度量学习的小样本目标识别方法。虽然该方法通过多个子网络来增加模型对待识别目标的适应性,但是所有的子网络还是只学习了单一的类别任务,难以学习样本图像的其他属性,导致其学习性能依然存在局限性。因此,如何使模型学习到样本的多重属性,进一步提升小样本图像分类模型的性能,已成为研究者们关注的重点。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种多任务联合集成的小样本图像分类方法,以解决现有基于度量学习的小样本图像分类方法难以学习到数据变化属性的问题。
为达到上述目的,本发明提供一种多任务联合集成的小样本图像分类方法,包括:
将待分类支撑集进行数据增广得到多组增广支撑集;
将多组增广支撑集和待分类查询集输入预先训练得到的多任务联合集成网络,得到多组支撑集特征和查询集特征;
利用多组支撑集特征计算类别中心,计算查询集特征与每组类别中心的欧式距离,得到多组相似性分数;
采用非极大值抑制的方式处理相似性分数,并使用预先设定的融合方式集成所有相似性分数,得到最终的输出结果。
进一步地,训练获得多任务联合集成网络,包括:
获取支撑集和查询集;
对支撑集进行数据增广,得到多组支撑集;
基于增广后的支撑集和查询集,利用预设的小样本图像分类任务损失函数计算获得预先构建的多任务联合集成网络的小样本图像分类任务损失值;
基于支撑集,利用预设的自监督任务损失函数计算获得预先构建的多任务联合集成网络的自监督任务损失值;
基于小样本图像分类任务损失值和自监督任务损失值,构建联合损失函数并采用梯度更新的方式迭代更新多任务联合集成网络;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民解放军陆军工程大学,未经中国人民解放军陆军工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210384018.0/2.html,转载请声明来源钻瓜专利网。