[发明专利]一种多样性增强的无数据知识蒸馏方法在审
| 申请号: | 202211734108.4 | 申请日: | 2022-12-30 |
| 公开(公告)号: | CN115983376A | 公开(公告)日: | 2023-04-18 |
| 发明(设计)人: | 叶阿勇;刘燕妮 | 申请(专利权)人: | 福建师范大学 |
| 主分类号: | G06N3/096 | 分类号: | G06N3/096;G06N3/0464;G06N3/048 |
| 代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊;薛金才 |
| 地址: | 350117 福建省福州市闽侯县*** | 国省代码: | 福建;35 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 多样性 增强 数据 知识 蒸馏 方法 | ||
1.一种多样性增强的无数据知识蒸馏方法,其特征在于,包括以下步骤:
步骤1:初始化大型教师模型,使用原始数据集训练教师模型,并存储教师模型对应的内部知识;
步骤2:构建深度卷积条件生成网络,基于条件生成的思想将预设的标签信息作为条件数据,与噪声向量一起输入到条件生成网络;
步骤3:基于度量学习构建一个多样性正则化项,同时根据教师模型反馈知识、内部知识和多样性正则化项的损失函数联合训练条件生成网络训练,直至条件生成网络收敛,使用训练好的条件生成网络合成数据集;
步骤4:利用在步骤3中获得的合成数据集通过知识蒸馏训练学生模型,直至学生模型被训练至收敛。
2.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤1具体包括:
步骤11:初始化参数为θT的大型教师模型T;
步骤12:设定最大迭代次数为NT、停止迭代阈值为kT,用原始数据集(Xori,Yori)训练步骤11中搭建好的教师模型,直到当前迭代的函数值小于阈值kT或达到最大迭代次数NT,保存训练好的教师模型T;
步骤13:存储教师模型的内部知识,即原始数据在教师模型第l层的运行均值μl和方差
3.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤2具体包括:
步骤21:构建参数为θG的条件生成网络G,由卷积层,BatchNorm层,Tanh层和LeakyReLU激活函数组成;
步骤22:假设噪声向量z符合高斯分布,给定噪声向量z和其类别信息y作为条件生成网络G的输入,得到合成数据xG=G(z|y,θG)。
4.根据权利要求2所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,所述步骤3具体包括:
步骤31:所述步骤3中同时根据教师模型反馈知识、内部知识和多样性正则化项的损失函数联合训练条件生成网络训练,总体损失函数为:
LG(xG,y)=LTG(xG,y)+LS(xG)+LDIV
其中,LTG是教师模型反馈知识的损失函数,LS是教师模型内部知识的损失函数,LDIV是多样性正则化项的损失函数;
步骤32:教师模型反馈知识的损失函数具体包括:
LTG(xG,y)=LOH(xG,y)+RL2(xG)+RTV(xG)
其中,LOH是教师模型T对合成数据xG的预测输出和预设类别信息y之间的交叉熵损失,其公式表示为:
RL2是合成图像的L2范数,其鼓励合成图像的范围保持在目标间隔内,公式表示为:RL2(xG)=||xG||2,RTV是全变分正则化项,用于噪声消除和保留图像边界信息,其计算公式表示为:
其中,表示图像xG在坐标(i,j)上的像素值;
步骤33:教师模型内部知识的损失函数具体包括:
LS用于最小化所有层合成数据xG和原始数据的统计数据之间的距离;其中,μl和是在步骤13中存储的教师模型内部知识;μl(xG)和表示合成数据在教师模型第l层的运行均值和方差;N(·,·)表示正态分布,DKL(·||·)表示KL散度;
步骤34:基于度量学习尽可能放大同类样本之间的距离,主要使通过计算同类别合成数据相对于噪声向量之间的比率来实现,多样性正则化项的损失函数具体包括:
其中,z和z1是标签信息都为y的不同噪声向量,xG和xG1是条件生成网络G合成的数据;
步骤35:设定最大迭代次数为NG、停止迭代阈值为kG,根据损失函数LG训练更新条件生成网络G的参数,直到当前迭代的函数值小于阈值k或达到最大迭代次数NG,输出合成数据集(XG,Y)。
5.根据权利要求1所述的一种多样性增强的无数据知识蒸馏方法,其特征在于,步骤4具体包括:
步骤41:初始化参数为θS的轻量级学生模型S;
步骤42:用合成数据集(XG,Y)以知识蒸馏的方式训练学生模型的总体损失函数为:
L=LKD(T(xG;θT;t),S(xG;θS;t))+λLCE(S(xG;θS),y),(xG∈XG,y∈Y)
其中,LCE(S(xG;θS),y)是学生模型输出和预定义类别之间的交叉熵;LKD是教师模型和学生模型输出之间的KL散度,t是蒸馏温度,λ是用于平衡两个损失项的权重参数;
步骤43:设定最大迭代次数为NS、停止迭代阈值为kS,用合成数据集(XG,Y)训练步骤41中搭建好的教师模型,直到当前迭代的函数值小于阈值kS或达到最大迭代次数NS,保存训练好的教师模型S。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福建师范大学,未经福建师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211734108.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种新型胶料的塑性快速检测装置
- 下一篇:一种专色油墨印刷的调色方法
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置





