[发明专利]深度神经网络模型的压缩方法及装置、终端、存储介质在审
| 申请号: | 201710266595.9 | 申请日: | 2017-04-21 |
| 公开(公告)号: | CN108734267A | 公开(公告)日: | 2018-11-02 |
| 发明(设计)人: | 赵晓辉;林福辉 | 申请(专利权)人: | 展讯通信(上海)有限公司 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04 |
| 代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 郭学秀;吴敏 |
| 地址: | 201203 上海市浦东新区浦东*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 神经网络模型 压缩方法及装置 存储介质 终端 贡献度 压缩 | ||
1.一种深度神经网络模型的压缩方法,其特征在于,包括:
获取已训练的深度神经网络模型;
基于参数在所述深度神经网络模型中的整体贡献度,对已训练的深度神经网络模型的各层参数进行简化,得到简化后的深度神经网络模型。
2.根据权利要求1所述的深度神经网络模型的压缩方法,其特征在于,所述基于参数在所述深度神经网络模型中的整体贡献度,对已训练的深度神经网络模型的各层参数进行简化,包括:
按照从后至前的顺序对已训练的深度神经网络模型的各层进行遍历,获取遍历到的当前层的保留权重;
计算遍历至的当前层的保留权重的全权连接数值;所述全权连接数值与当前层的参数在所述深度神经网络中的贡献度相关联;
将当前层的保留权重的权连接数值与当前层对应的精简阈值进行比较,并根据比较结果确定当前层的最终保留权重;
获取下一层中与当前层的最终保留权重对应的权重,作为下一层的保留权重,直至所述深度神经网络模型的所有层遍历完成。
3.根据权利要求2所述的深度神经网络模型的压缩方法,其特征在于,当所述深度神经网络模型为M层时,所述计算遍历至的当前层的保留权重的全权连接数值,包括:
其中,OM,n表示第M层的第n个保留权重的全权连接数值,n表示第M层的第n个保留权重,Nm表示第M层保留权重的数量,oM,n表示第1至第(M-1)层中遍历到的当前层中第n个保留权重的全权连接数值,n表示第1至第(M-1)层中遍历到的当前层中的第n个保留权重,K第1至第(M-1)层中遍历到的当前层中的保留权重的数量。
4.根据权利要求2所述的深度神经网络模型的压缩方法,其特征在于,所述根据比较结果确定当前层的保留参数,包括:
当确定计算得到的全权连接数值小于或等于当前层对应的精简阈值时,将对应的保留权重删除;
当确定计算得到的全权连接数值大于当前层对应的精简阈值时,将当前层对应的保留权重保留。
5.根据权利要求4所述的深度神经网络模型的压缩方法,其特征在于,所述对应的精简阈值通过以下方式获取:
其中,m表示所述深度神经网络模型的第m层,θm表示所述深度神经网络模型第m层对应的精简阈值,α表示预设的质量参数,Nm表示所述深度神经网络模型的第m层中保留权重的数量,om,n表示深度神经网络模型中第m层第n个保留权重的权连接数值,μm表示所述深度神经网络模型的第m层的保留权重的全权连接数值的均值。
6.根据权利要求1所述的深度神经网络模型的压缩方法,其特征在于,还包括:对简化后的深度神经网络模型进行重新训练。
7.一种深度神经网络模型的压缩装置,其特征在于,包括:
获取单元,适于获取已训练的深度神经网络模型;
简化单元,适于基于参数在所述深度神经网络模型中的整体贡献度,对已训练的深度神经网络模型的各层参数进行简化,得到简化后的深度神经网络模型。
8.根据权利要求7所述的深度神经网络模型的压缩装置,其特征在于,所述简化单元,适于按照从后至前的顺序对已训练的深度神经网络模型的各层进行遍历,获取遍历到的当前层的保留权重;计算遍历至的当前层的保留权重的全权连接数值;所述全权连接数值与当前层的参数在所述深度神经网络中的贡献度相关联;将当前层的保留权重的权连接数值与当前层对应的精简阈值进行比较,并根据比较结果确定当前层的最终保留权重;获取下一层中与当前层的最终保留权重对应的权重,作为下一层的保留权重,直至所述深度神经网络模型的所有层遍历完成。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于展讯通信(上海)有限公司,未经展讯通信(上海)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710266595.9/1.html,转载请声明来源钻瓜专利网。





