[发明专利]基于条件对抗自编码网络的特征学习方法及图像识别方法有效
申请号: | 201811379900.6 | 申请日: | 2018-11-20 |
公开(公告)号: | CN109543745B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 陈秀宏;肖汉雄 | 申请(专利权)人: | 江南大学 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 无锡盛阳专利商标事务所(普通合伙) 32227 | 代理人: | 顾吉云;郭金玉 |
地址: | 214000 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 条件 对抗 编码 网络 特征 学习方法 图像 识别 方法 | ||
基于条件对抗自编码网络的特征学习方法,其通过标签变量来控制生成结果,生成具有标签的样本用以辅助其他学习任务,提高图像识别效率;同时本发明还公开了基于条件对抗自编码网络的特征学习方法的图像识别方法,其能够在复杂的对象布局以及多标签图像场景时,获得高精度的图像识别效果。其包括S1选定训练集;S2选定先验分布函数;S3以对抗自编码网络模型为基础,在网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,构建网络模型;S4训练网络模型,以优化网络模型中的参数;S5通过训练好的网络模型中的判别器进行数据特征的提取、或者利用训练好的生成器生成原始输入的重构。
技术领域
本发明涉及图像识别技术领域,具体为基于条件对抗自编码网络的特征学习方法及图像识别方法。
背景技术
近几年来,基于深度学习(Deep Learning)的技术在计算机视觉领域取得了很多显著的成果,其中有代表性的深度学习方法,如CNN(卷积神经网络)、AutoEncoder(以下简称AE)、生成式对抗网络(Generative Adversarial Nets,以下简称GAN)、对抗自编码(Adversarial AutoEncoder,以下简称AAE),都被广泛地使用到了图像识别领域。然而,随着技术的发展,图像识别技术被广泛地应用到复杂的对像布局以及多标签图像的场景,此时,如何从有限的样本中有效地利用数据的标签信息学习数据分布,进而提高面对复杂场景时的图像识别的效率和精度,依然是一个极具挑战性的任务。
如图1所示,GAN模型通过生成器3和判别器4之间的“最小-最大对抗游戏”来捕捉数据分布,训练过程中GAN模型从给定的先验分布2中生成伪训练样本5,判别器4从输入的伪训练样本5和真实样本1中判断真实来源,以提高判断样本来源的能力。尽管 GAN 模型能够很好地捕捉数据的分布,但是依然面临训练过程中存在模式崩塌的现象和样本空间到隐空间的映射不存在的问题。如图2所示,AAE模型中编码器6对真实样本1进行编码,获得一个隐含层8,解码器7对编码的隐含层8进行解码,从而获得原始输入的重构;编码器6和解码器7构成了AE部分,AAE模型将通过隐含层8提取的真实样本1的数据的编码特征作为负样本,将给定的先验分布2作为正样本,结合判别器4进行对抗训练。AAE是无监督学习方法,生成的样本虽然能够很好地拟合训练样本的分布,在用到图像识别技术中时能很好地消除GAN模型生成图像不逼真的问题,但是只能生成没有标签的样本,无法有效地利用标签信息。
发明内容
为了解决无法在有限的样本中有效地利用数据的标签信息来学习数据特征,进而获得更高的图像识别效率和识别精度的问题,本发明提供基于条件对抗自编码网络的特征学习方法,其通过标签变量来控制生成结果,生成具有标签的样本用以辅助其他学习任务,提高图像识别效率;同时本发明还公开了基于条件对抗自编码网络的特征学习方法的图像识别方法,其能够在复杂的对象布局以及多标签图像场景时,获得高精度的图像识别效果。
本发明的技术方案是这样的:基于条件对抗自编码网络的特征学习方法,其包括以下步骤:
S1:选定训练集;
S2:选定先验分布函数;
S3:以对抗自编码网络模型为基础构建网络模型;
S4:训练所述网络模型,以优化所述网络模型中的参数;
S5:通过训练好的所述网络模型中的判别器进行数据特征的提取、或者利用训练好的生成器生成原始输入的重构;
其特征在于:
步骤S3中构建的、以对抗自编码网络模型为基础的所述网络模型为基于条件对抗自编码网络模型,其在网络模型中的判别器或者编码器的输入数据中引入样本数据的标签信息,使所述基于条件对抗自编码网络模型的判别能力得到提高。
其进一步特征在于:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811379900.6/2.html,转载请声明来源钻瓜专利网。