[发明专利]一种多样性增强的无数据知识蒸馏方法在审

专利信息
申请号: 202211734108.4 申请日: 2022-12-30
公开(公告)号: CN115983376A 公开(公告)日: 2023-04-18
发明(设计)人: 叶阿勇;刘燕妮 申请(专利权)人: 福建师范大学
主分类号: G06N3/096 分类号: G06N3/096;G06N3/0464;G06N3/048
代理公司: 福州元创专利商标代理有限公司 35100 代理人: 蔡学俊;薛金才
地址: 350117 福建省福州市闽侯县*** 国省代码: 福建;35
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 多样性 增强 数据 知识 蒸馏 方法
【权利要求书】:

1.一种多样性增强的无数据知识蒸馏方法,其特征在于,包括以下步骤:

步骤1:初始化大型教师模型,使用原始数据集训练教师模型,并存储教师模型对应的内部知识;

步骤2:构建深度卷积条件生成网络,基于条件生成的思想将预设的标签信息作为条件数据,与噪声向量一起输入到条件生成网络;

步骤3:基于度量学习构建一个多样性正则化项,同时根据教师模型反馈知识、内部知识和多样性正则化项的损失函数联合训练条件生成网络训练,直至条件生成网络收敛,使用训练好的条件生成网络合成数据集;

步骤4:利用在步骤3中获得的合成数据集通过知识蒸馏训练学生模型,直至学生模型被训练至收敛。

2.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤1具体包括:

步骤11:初始化参数为θT的大型教师模型T;

步骤12:设定最大迭代次数为NT、停止迭代阈值为kT,用原始数据集(Xori,Yori)训练步骤11中搭建好的教师模型,直到当前迭代的函数值小于阈值kT或达到最大迭代次数NT,保存训练好的教师模型T;

步骤13:存储教师模型的内部知识,即原始数据在教师模型第l层的运行均值μl和方差

3.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤2具体包括:

步骤21:构建参数为θG的条件生成网络G,由卷积层,BatchNorm层,Tanh层和LeakyReLU激活函数组成;

步骤22:假设噪声向量z符合高斯分布,给定噪声向量z和其类别信息y作为条件生成网络G的输入,得到合成数据xG=G(z|y,θG)。

4.根据权利要求2所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤3具体包括:

步骤31:所述步骤3中同时根据教师模型反馈知识、内部知识和多样性正则化项的损失函数联合训练条件生成网络训练,总体损失函数为:

LG(xG,y)=LTG(xG,y)+LS(xG)+LDIV

其中,LTG是教师模型反馈知识的损失函数,LS是教师模型内部知识的损失函数,LDIV是多样性正则化项的损失函数;

步骤32:教师模型反馈知识的损失函数具体包括:

LTG(xG,y)=LOH(xG,y)+RL2(xG)+RTV(xG)

其中,LOH是教师模型T对合成数据xG的预测输出和预设类别信息y之间的交叉熵损失,其公式表示为:

RL2是合成图像的L2范数,其鼓励合成图像的范围保持在目标间隔内,公式表示为:RL2(xG)=||xG||2,RTV是全变分正则化项,用于噪声消除和保留图像边界信息,其计算公式表示为:

其中,表示图像xG在坐标(i,j)上的像素值;

步骤33:教师模型内部知识的损失函数具体包括:

LS用于最小化所有层合成数据xG和原始数据的统计数据之间的距离;其中,μl和是在步骤13中存储的教师模型内部知识;μl(xG)和表示合成数据在教师模型第l层的运行均值和方差;N(·,·)表示正态分布,DKL(·||·)表示KL散度;

步骤34:基于度量学习尽可能放大同类样本之间的距离,主要使通过计算同类别合成数据相对于噪声向量之间的比率来实现,多样性正则化项的损失函数具体包括:

其中,z和z1是标签信息都为y的不同噪声向量,xG和xG1是条件生成网络G合成的数据;

步骤35:设定最大迭代次数为NG、停止迭代阈值为kG,根据损失函数LG训练更新条件生成网络G的参数,直到当前迭代的函数值小于阈值k或达到最大迭代次数NG,输出合成数据集(XG,Y)。

5.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,步骤4具体包括:

步骤41:初始化参数为θS的轻量级学生模型S;

步骤42:用合成数据集(XG,Y)以知识蒸馏的方式训练学生模型的总体损失函数为:

L=LKD(T(xG;θT;t),S(xG;θS;t))+λLCE(S(xG;θS),y),(xG∈XG,y∈Y)

其中,LCE(S(xG;θS),y)是学生模型输出和预定义类别之间的交叉熵;LKD是教师模型和学生模型输出之间的KL散度,t是蒸馏温度,λ是用于平衡两个损失项的权重参数;

步骤43:设定最大迭代次数为NS、停止迭代阈值为kS,用合成数据集(XG,Y)训练步骤41中搭建好的教师模型,直到当前迭代的函数值小于阈值kS或达到最大迭代次数NS,保存训练好的教师模型S。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建师范大学,未经福建师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202211734108.4/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top