[发明专利]一种面向轻量级神经网络的模型优化和压缩方法在审
申请号: | 202010637629.2 | 申请日: | 2020-07-05 |
公开(公告)号: | CN112016670A | 公开(公告)日: | 2020-12-01 |
发明(设计)人: | 徐增敏;赵汝文;陈凯;丁勇;唐梅军;刘建伟;蒙儒省;罗劲锋 | 申请(专利权)人: | 桂林电子科技大学;桂林安维科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 桂林文必达专利代理事务所(特殊普通合伙) 45134 | 代理人: | 张学平 |
地址: | 541004 广西*** | 国省代码: | 广西;45 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 轻量级 神经网络 模型 优化 压缩 方法 | ||
1.一种面向轻量级神经网络的模型优化和压缩方法,其特征在于,包括:
利用改进参数对ReLU函数进行改进,并对所述改进参数进行训练更新;
将改进的自门控函数与改进后的所述ReLU函数进行融合,得到融合激活函数;
根据获取的剔除阈值对卷积神经网络模型进行压缩。
2.如权利要求1所述的面向轻量级神经网络的模型优化和压缩方法,其特征在于,利用改进参数对ReLU函数进行改进,并对所述改进参数进行训练更新,包括:
根据获取的原始ReLU函数,对所述原始ReLU函数中自变量小于零的对应的表达式中加入改进参数,同时扩大所述自变量范围至小于或等于零,并利用链式法则对所述训练参数进行更新。
3.如权利要求1所述的面向轻量级神经网络的模型优化和压缩方法,其特征在于,利用改进参数对ReLU函数进行改进,并对所述改进参数进行训练更新,还包括:
根据链式法则计算出改进后的ReLU函数对应的梯度表达式,结合对应的权值共享变量,得到所述训练参数的梯度表达式,并结合动量法对所述训练参数进行更新。
4.如权利要求3所述的面向轻量级神经网络的模型优化和压缩方法,其特征在于,将改进的自门控函数与改进后的所述ReLU函数进行融合,得到融合激活函数,包括:
利用ReLU6函数将自门控函数中的Sigmoid函数进行替换,并与改进后的ReLU函数进行融合,将自变量大于零的表达式采用改进的ReLU函数,自变量小于或等于零的表达式采用改进后的自门控函数,得到融合激活函数。
5.如权利要求4所述的面向轻量级神经网络的模型优化和压缩方法,其特征在于,根据获取的剔除阈值对卷积神经网络模型进行压缩,包括:
对获取的卷积神经网络模型进行训练,并记录原始训练参数,同时根据获取的剔除阈值,自下而上的删除所述卷积神经网络模型中对应的卷积核数量。
6.如权利要求5所述的面向轻量级神经网络的模型优化和压缩方法,其特征在于,根据获取的剔除阈值对卷积神经网络模型进行压缩,还包括:
将删除对应数量的所述卷积核后的所述卷积神经网络模型进行训练,并将得到的对应的训练参数与所述原始训练参数进行参数减少量对比,直至模型精度与参数量平衡。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于桂林电子科技大学;桂林安维科技有限公司,未经桂林电子科技大学;桂林安维科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010637629.2/1.html,转载请声明来源钻瓜专利网。