[发明专利]神经网络压缩方法及装置、计算机可读介质、电子设备在审
申请号: | 202210192398.8 | 申请日: | 2022-02-28 |
公开(公告)号: | CN114565080A | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 王李闽 | 申请(专利权)人: | OPPO广东移动通信有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 深圳市隆天联鼎知识产权代理有限公司 44232 | 代理人: | 刘抗美 |
地址: | 523860 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 压缩 方法 装置 计算机 可读 介质 电子设备 | ||
本公开具体涉及计算机技术领域,具体涉及神经网络压缩方法及装置、计算机可读介质以及处理器。所述方法包括:响应于触发操作为原始模型配置待执行参数;其中,所述待执行参数包括模型剪枝参数、训练终止条件;对所述原始模型插入伪量化节点,并统计对应的量化参数;基于所述量化参数对插入伪量化节点的原始模型进行量化感知训练;根据所述剪枝参数中的剪枝频率对进行了n轮量化感知训练的原始模型进行剪枝处理,直至所述原始模型达到预设的所述训练终止条件;其中,n为正整数。本方案能够缩短剪枝、量化的时间开销,并提高模型精度。
技术领域
本公开涉及计算机技术领域,具体涉及一种神经网络压缩方法、一种神经网络压缩装置、一种计算机可读介质以及一种处理器。
背景技术
随着人工智能的快速发展,神经网络已被推广并应用到诸多领域,例如,语音识别、图像识别、数据分析等领域。但随着神经网络性能的提升,模型的参数量和计算量也越来越大,神经网络存在自身运算量大、内存消耗多的特点。在算力有限的终端运行神经网络时,便需要对神经网络模型进行压缩。现有的神经网络压缩方法存在训练时间开销大,模型处理时间长等缺陷。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种神经网络压缩方法、一种神经网络压缩装置、一种计算机可读介质以及一种处理器,能够降低模型训练的时间开销。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供一种神经网络压缩方法,包括:
响应于触发操作为原始模型配置待执行参数;其中,所述待执行参数包括模型剪枝参数、训练终止条件;
对所述原始模型插入伪量化节点,并统计对应的量化参数;
基于所述量化参数对插入伪量化节点的原始模型进行量化感知训练;
根据所述剪枝参数中的剪枝频率对进行了n轮量化感知训练的原始模型进行剪枝处理,直至所述原始模型达到预设的所述训练终止条件;其中,n为正整数。
根据本公开的第二方面,提供一种神经网络压缩装置,包括:
待执行参数配置模块,用于响应于触发操作为原始模型配置待执行参数;其中,所述待执行参数包括模型剪枝参数、训练终止条件;
量化参数统计模块,用于对所述原始模型插入伪量化节点,并统计对应的量化参数;
量化感知训练模块,用于基于所述量化参数对插入伪量化节点的原始模型进行量化感知训练;
剪枝执行模块,用于根据所述剪枝参数中的剪枝频率对进行了n轮量化感知训练的原始模型进行剪枝处理,直至所述原始模型达到预设的所述训练终止条件;其中,n为正整数。
根据本公开的第三方面,提供一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的神经网络压缩方法。
根据本公开的第四方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来实现上述的神经网络压缩方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于OPPO广东移动通信有限公司,未经OPPO广东移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210192398.8/2.html,转载请声明来源钻瓜专利网。