[发明专利]一种基于元学习的细粒度分类方法在审
申请号: | 201811451465.3 | 申请日: | 2018-11-30 |
公开(公告)号: | CN109711433A | 公开(公告)日: | 2019-05-03 |
发明(设计)人: | 陆生礼;庞伟;阮小千;范雪梅;武瑞利;向丽苹;梁彪 | 申请(专利权)人: | 东南大学;东南大学—无锡集成电路技术研究所;南京三宝科技股份有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 葛潇敏 |
地址: | 214135 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 细粒度分类 测试集 训练集 彩色图片 外部数据 样本类别 样本 测试 分类效果 快速生成 数据集中 数据增强 损失函数 初始化 大数据 数据集 验证集 微调 相交 输出 通用 学习 分类 网络 | ||
本发明公开一种基于元学习的细粒度分类方法,步骤是:建立外部数据集,将数据集分为训练集、验证集和测试集,三者之间的样本类别互不相交,且测试集的样本类别小于训练集;对数据集中的样本进行数据增强;建立卷积神经网络,该卷积神经网络的输入为彩色图片,输出为彩色图片所属类别,分类层的长度等于外部数据集的类别数,损失函数采用softmax loss;采用训练集训练细粒度分类网络;利用测试集对预训练好的卷积神经网络进行测试,并根据测试结果对卷积神经网络进行微调。此种方法可以快速生成一个良好的通用初始化模型,可以使得在测试相关但不同的类别时,仅用较少的样本就可以取得较好的分类效果,来解决细粒度分类时没有大数据集的问题。
技术领域
本发明属于计算推算的技术领域,尤其属于细粒度分类的计算机视觉技术领域,涉及一种基于元学习的细粒度分类方法。
背景技术
细粒度图像识别是图像分类中一个具有挑战性的任务,其目标是在一个大类中的众多子类中正确地识别目标。总体而言,细粒度图像分类是寻找一些细微的局部区域,并利用这些局部区域的特征对原图进行分类。但是,当前的细粒度分类算法基本上都是采用通用模型(如VGG16)来进行细粒度分类,这样就限制了分类模型的结构且迁移效果也不是很好。因此我们利用元学习的方法来快速生成一个良好的通用初始化模型,再在这个初始化模型的基础上进行细粒度分类。
现有的细粒度分类算法是都是采用大数据集对模型进行训练,并得到比较好的结果。在这种情况下,需要大数据集给深度神经网络提供大量的样本来提取丰富的特征。但是,如果我们要针对某个小样本的数据集进行细粒度分类,我们就不能利用传统的细粒度分类的方法进行处理。
深度神经网络提高模型的辨识度,但是网络训练耗费大量的时间和运算资源,因此一般我们会采用传统的已经训练好的神经网络进行微调,但是传统的神经网络的模型结果已经固定,不利于我们多样化的模型选择;另一方面,细粒度图像分类不同于传统的分类问题,它注重对图像的局部区域的区分,因此其对模型的要求和一般的分类算法有所不同。为了更好地解决细粒度图像分类问题,需要一个简便精准的学习方法,本案由此产生。
发明内容
本发明的目的,在于提供一种基于元学习的细粒度分类方法,可以快速生成一个良好的通用初始化模型,可以使得在测试相关但不同的类别时,仅用较少的样本就可以取得较好的分类效果,来解决细粒度分类时没有大数据集的问题。
为了达成上述目的,本发明的解决方案是:
一种基于元学习的细粒度分类方法,包括如下步骤:
步骤1,根据研究机构的公开细粒度分类数据库或自行搜集的数据建立外部数据集,将数据集分为训练集、验证集和测试集,且测试集的样本类别小于训练集,训练集、验证集和测试集之间的样本类别互不相交;
步骤2,对数据集中的样本进行数据增强,采用如下至少一种方式进行数据增强:平移,缩放,旋转,翻转;
步骤3,建立卷积神经网络,该卷积神经网络的输入为彩色图片,输出为彩色图片所属类别,分类层的长度等于外部数据集的类别数,损失函数采用softmax loss;采用训练集训练细粒度分类网络;
步骤4,利用测试集对步骤3预训练好的卷积神经网络进行测试,并根据测试结果对卷积神经网络进行微调。
上述步骤1中,细粒度分类数据库选择Caltech-UCSD Brids 200数据集或者DogNet。
上述步骤1中,将数据集中的所有图片缩放成卷积神经网络的输入尺寸。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学;东南大学—无锡集成电路技术研究所;南京三宝科技股份有限公司,未经东南大学;东南大学—无锡集成电路技术研究所;南京三宝科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811451465.3/2.html,转载请声明来源钻瓜专利网。