[发明专利]一种卷积神经网络的剪枝方法、装置、设备和介质有效
申请号: | 202110428305.2 | 申请日: | 2021-04-21 |
公开(公告)号: | CN113011588B | 公开(公告)日: | 2023-05-30 |
发明(设计)人: | 张维纬;周密;余浩然 | 申请(专利权)人: | 华侨大学 |
主分类号: | G06N3/082 | 分类号: | G06N3/082;G06N3/0464 |
代理公司: | 泉州市文华专利代理有限公司 35205 | 代理人: | 陈雪莹 |
地址: | 362000 福建*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 卷积 神经网络 剪枝 方法 装置 设备 介质 | ||
1.一种卷积神经网络的剪枝方法,其特征在于:包括下述步骤:
S1、获取图像的数据集,并将数据集按比例分为训练集与验证集;
S2、将待剪枝的卷积神经网络模型进行初始化后,对训练集中的图像进行多轮预训练,从而获得各网络层的权重和,并根据权重和确定网络的敏感层;
S3、通过强化学习进行多轮自动化剪枝操作,并通过验证集验证得到每轮剪枝操作的模型精确度,从而获得模型精度最高的模型剪枝策略;其间,根据强化学习的确定性策略,对网络的敏感层和非敏感层实行不同的压缩策略,所述敏感层的压缩率低于非敏感层的压缩率,来对各网络层的滤波器数量进行剪枝;所述步骤S3具体是:
S31、根据待剪枝的卷积神经网络模型的滤波器总数和目标剪枝率确定滤波器待剪总量M,进入多轮自动化剪枝操作;
S32、获取当前模型中的当前网络层并判断是否为敏感层,若否,按照强化学习给出的动作进行压缩;若是,则根据强化学习的确定性策略,将强化学习的确定性输出的当前层压缩率设置为当前确定性输出的0.1倍,获取当前模型的当前网络层i应当执行剪枝操作的滤波器数量Ni,同时计算获得剩余滤波器待剪量M’,M’=M-∑Ni;
S33、通过计算滤波器的L2范数计算滤波器的重要性程度,并将重要性程度低的Ni个滤波器的权重设置为0,从而完成当前模型中的当前网络层的Ni数量的滤波器剪枝;
S34、重复上述步骤S32和步骤S33,直到完成当前模型中的所有网络层的自动化剪枝操作,则当前轮自动化剪枝操作结束;
S35、发起新的一轮自动化剪枝操作,回到步骤S32,直到完成所有轮次的自动化剪枝操作;
其中,在每轮自动化剪枝操作结束后,通过验证集验证得到当前模型剪枝操作的模型精确度,并将当前模型剪枝策略与模型精确度对应保存到强化学习经验回放池中,在完成所有轮次的自动化剪枝操作后,通过比较即能获取精确度最高的剪枝策略;
所述强化学习采用的是DDPG深度确定性策略强化学习法,该DDPG深度确定性策略强化学习法中的演员网络与评论家网络的训练根据完整一轮自动化剪枝所获得模型精确度与每一轮自动化剪枝中的剪枝状态作为输入来执行训练操作;
其中,在状态空间中,对于每一网络层t,通过公式(1)所示的10个属性来表示环境St的属性特征:
(t,n,c,h,w,stride,k,FLOPs[t],Reall,Rest,at-1) 公式(1);
式(1)中,t表示卷积神经网络模型层的索引,卷积核的尺寸为n×c×k×k,输入值为c×h×w,Stride表示卷积操作中的步长,FLOPs[t]表示第Lt层的浮点计算次数,Reall表示前面所有已剪枝的网络减少的FLOPs的总数,Rest表示余下各层中剩余的FLOPs总数;代理从滤波器剪枝的环境中获得属性特征所处的第t层的环境St,获得当前特征向量,然后输出环境St状态下的动作作为当前网络层的压缩率at-1,指导当前网络层进行可替代滤波器剪枝;
在下一轮剪枝时,通过在DDPG经验回放池中采集m个样本利用下述公式(2)计算当前目标Q值yj:
式(2)中,所示的πθ′(φ(S′j))是通过演员目标网络获得,而Q′(φ(S′j),πθ′(φ(S′j)),w′)则是通过评论家目标网络获得;其中γ的值设置为1以避免短期奖励的优先级过高;在代理更新期间通过减去基线奖励b来减少梯度估计的方差,is_endj则表示对当前是否处于模型最后一层的判断;Rj表示的是强化学习函数当前所获得的奖励,其中梯度估计的值为此前奖励的指数移动平均值;
对于强化学习中的当前目标Q值yj,通过在DDPG经验回放池中采集m个样本{φ(Sj),Aj,Rj,φ(S′j),is_endj},其中j=1,2,3…m,DDPG的损失函数为下述公式(3)所示的均方误差函数:
式(3)中,φ(Sj)为当前状态Sj下获得的特征向量;其选择出来的动作A会增加一定的噪声,并且噪声会在每轮剪枝完以后呈指数衰减,公式中Aj表示为当前强化学习输出的动作,w则表示评论家当前网络的参数,Q(φ(Sj),Aj,ω)由评论家当前网络获得;最终和环境交互的动作A如公式(3)和公式(4)所示,其中公式(4)中,S表示强化学习所获得的当前状态,e表示演员当前网络的参数,N表示是对所获得的动作添加的一定的噪声:
A=πθ(S)+N 公式(4);
强化学习中的奖励函数如公式(5)所示,其中log(FLOPs)以e为底与Error成反比,其中Error表示模型错误率的百分比:
RFLOPs=-Error·log(FLOPs) 公式(5);
所述步骤S33中的滤波器L2范数的计算采用下述公式(6)进行:
式(6)中,Fi,j表示的是第i层第j个滤波器,K表示滤波器的尺寸,N表示滤波器的个数,k1,k2表示滤波器参数矩阵的两个维度;
S4、对完成多轮自动化剪枝操作后的卷积神经网络模型执行微调操作,得到最终的卷积神经网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华侨大学,未经华侨大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110428305.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种全自动眼镜脚丝生产设备
- 下一篇:一种自动吸烟腹部铺灸装置