[发明专利]一种基于小样本学习的注意力机制关系对比网络模型方法有效

专利信息
申请号: 201910251691.5 申请日: 2019-03-29
公开(公告)号: CN110020682B 公开(公告)日: 2021-02-26
发明(设计)人: 于重重;马先钦;冯文彬 申请(专利权)人: 北京工商大学;煤科集团沈阳研究院有限公司
主分类号: G06K9/62 分类号: G06K9/62;G06N3/04;G06N3/08
代理公司: 北京万象新悦知识产权代理有限公司 11360 代理人: 黄凤茹
地址: 100048*** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公布了一种注意力机制关系对比网络模型方法,构建在少量有标签样本数据下进行小样本学习的注意力关系对比网络模型。基于关系网络架构,将模型分为特征编码、特征组合和关系编码部分,特征编码模块的作用是进行图像特征信息提取,特征组合部分是将提取的查询图像特征信息分别与每组的训练图像特征信息进行重新组合,形成新的组合特征图。关系编码模块进行网络的非线性度量学习,通过在端到端的深度卷积神经网络模型中引入注意力机制和谱归一化的方法,实现模型在小样本学习情况下具有更高的分类准确率,并且提升模型最终训练结果的稳定性,提高现有模型在小样本学习中的图像分类准确率。
搜索关键词: 一种 基于 样本 学习 注意力 机制 关系 对比 网络 模型 方法
【主权项】:
1.一种图像分类方法,其特征是,包括:建立基于小样本学习的注意力机制关系对比网络模型,称为ARCN模型;利用深度卷积网络对少量有标签图像和查询图像进行特征信息的提取;再利用提取的查询图像特征信息与有标签图像特征信息形成新的组合特征信息;最后通过深度卷积网络学习新的组合特征信息之间的深度度量关系,通过比较深度度量关系实现对图像的分类,由此达到仅利用少量的标签图片进行训练即可实现图像分类的目的;具体包括如下步骤:步骤1:对图像数据集进行预处理,包括:将小样本的图像数据集分成训练集、测试集和验证集;再将训练集分为训练样本集L和训练查询集Q,用于进行C类K样本训练;具体从训练集图像中随机选取C个不同类别;从每类别中选取K张带标签的图像组成训练样本集L;将剩余的图像作为训练查询集Q;构建ARCN模型;所述ARCN模型包括:特征编码部分、特征组合部分和关系编码部分;执行步骤2)~5):步骤2:建立特征编码部分,利用卷积神经网络提取小样本图像特征,得到训练样本集图像和训练查询集图像的特征信息;特征编码部分包括四个卷积模块和一个注意力机制模块;2.1 设计特征编码部分的卷积模块,四个卷积模块均包括操作有:卷积层运算、谱归一化、批归一化、ReLU函数激活层操作;2.1.1 卷积层运算:第一卷积模块中的卷积层输入是训练样本集图像Cij(i=1,…,c;j=1,…,K)和训练查询集图像Cn(n∈i),其中i为样本图像的类别编号;j为某一类别中图像的编号;n为查询集图像的类别编号,与i的类别编号范围一致;分别设置四个卷积模块的卷积层输入特征图通道数、卷积核大小、输出特征图通道数、填充的取值;卷积层运算后均得到64个特征图xl(l=1,2,3,4),其中l为卷积模块编号;2.1.2 谱归一化处理:对卷积操作的权值参数进行归一化处理,使得得到的权值参数满足1‑Lipschitz连续性条件,在进行小样本学习时提升训练结果的稳定性;网络的前馈计算的输出特征图表示为其中网络的卷积模块经卷积层操作后输出特征图为fl是非线性的激活函数,Wl和bl分别是网络的权重矩阵和偏差向量;为上一卷积模块输入的特征图;利用σ(W)表示矩阵W的谱范数,计算权重矩阵W的最大奇异值,表示为式1:其中,x为特征图;在线性层f(x)=Wx是通过||f||Lip=σ(W)给出的,对于Lipschitz范数的激活函数||fl||Lip=1l,而对于偏差向量||b||Lip=0,进一步表示为式2:利用谱归一化对权重矩阵W的谱范数进行归一化,权重矩阵W满足Lipschitz常数即σ(W)=1,得到式3:网络每层的随机初始化权重为W,通过式4进行迭代更新:式中,xl为迭代更新后的权重;再利用近似的奇异值近似逼近权重矩阵W的谱范数,表示为式5:σ(Wl)≈(xl)TWlvl                      (式5)σ(Wl)是经过谱归一化后的权重参数;2.1.3 利用批归一化对谱归一化后的权重参数进行处理;2.1.4 对权重参数进行ReLU函数的激活;2.1.5 对于第一卷积模块和第三卷积模块,需要增加最大池化层;第二卷积模块和第四卷积模块不设置最大池化层;2.2 设计特征编码部分的注意力机制模块在第二卷积模块和第三卷积模块之间引入注意力机制模块,使得网络有针对性的提取图像中较为关键的特征信息,同时弱化无关背景的干扰;包括:2.2.1 注意力机制模块的输入特征图为x1∈RC×W×H,其中x1表示的是第二卷积模块输出的特征图,C为特征图的通道数,W×H是特征图的大小;设置卷积层的卷积核大小;通道数量与输入的特征图通道数C相同;再利用激活函数ReLU进行处理,表示为式7:f1(x1)=ReLU(Conv1(x1)),f1(x1)∈RC×W×H              (式7)2.2.2 三个卷积层为Conv2,1,Conv2,2和Conv2,3,输入的特征图为x2=f1(x1),设置卷积核的大小,输出的通道数量与输入的特征图通道数C相同;对得到的特征图进行softmax处理,得到网络的注意力机制特征图F2,i∈RC×W×H(i=1,2,3),表示为式8:F2,i=f2,i(x2)=Softmax(Conv2,i(x2)),i=1,2,3            (式8)2.2.2 输入的特征图为x1∈RC×W×H,Conv3,i(i=1,2,3)与卷积层Conv2,i操作不同,采用空洞卷积以扩大卷积核的感受野,设置卷积核大小、卷积核膨胀值使得输入与输出特征图的大小不变;设置填充取值,输出的特征图通道数量与输入的特征图通道数C相同;之后进行批归一化运算,输出得到特征图F3,i∈RC×W×H,表示为式9:F3,i=gi(x)=BN(Conv3,i(x)),i=1,2,3         (式9)2.2.3 将F3,i的特征图进行转置,使得上下两通道的特征图矩阵可相乘,由此得到的输出特征图表示为式10:式中,βi的初始值为0,βi的作用是通过训练网络,自动加强对目标区域的关注,同时弱化背景的无关干扰信息;F2,i为得到的注意力机制特征图,F′3,i为得到的特征图的转置;步骤3:特征组合部分,包括如下操作:特征组合部分是将特征编码部分所提出的训练样本集L特征信息与查询集Q的特征信息进行重新组合,便于关系编码部分对组合特征信息的学习;包括:3.1 将训练样本集L经过图像Cij(i=1,…,c;j=1,…,K)中同一类的特征图进行求和处理,得到同一类别的新特征图表示为式11:3.2 将同一类别的新特征图与步骤2所提取的查询集Q中图像Cn(n∈i)的特征图相加,得到训练特征图与查询特征图的组合特征图S,表示为式12:步骤4:关系编码部分:进行网络的非线性度量学习,操作如下:采用元学习度量方式,通过对小样本分类任务的训练学习,使得网络学习到适应相应任务的较好深度度量方式,从而实现图像之间的比较;关系编码部分包括两个卷积块层和两层全连接层,包括如下操作:4.1 设置两个卷积块的输入特征图的数量、卷积核大小、输出特征通道数;之后依次对卷积操作后的特征图进行批归一化处理、ReLU的非线性激活、最大池化处理;4.2 设置全连接层的第一层FC1的输入;在FC1处采用ReLU激活函数进行处理;4.3 在FC2处采用Sigmoid激活函数,使得最终的分类得分Oi,n∈[0,1],表示为式13:步骤5:建立网络的损失函数,包括:利用均方误差损失函数loss对模型进行训练,使得训练的模型的分类得分Oi,n与实际分类结果相一致,表示为式14:网络在训练的过程中,采用Adam学习策略,根据loss值的大小,反向更新步骤2)~4)中各部分的网络权值参数,设置学习率为λ,网络需要训练迭代的次数为n,当网络迭代n次后结束训练;最终使得网络对同一类别的度量对比得分为1或者趋近于1,不同类别的度量对比得分为0或者趋近于0;得分高的类别即为图像分类的结果;通过上述步骤,即通过建立基于小样本学习的注意力机制关系对比网络模型实现图像分类。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工商大学;煤科集团沈阳研究院有限公司,未经北京工商大学;煤科集团沈阳研究院有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910251691.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top