[发明专利]压缩神经网络模型的方法、装置有效
申请号: | 202111457675.5 | 申请日: | 2021-12-02 |
公开(公告)号: | CN114418086B | 公开(公告)日: | 2023-02-28 |
发明(设计)人: | 王桂彬;丛士钧;董昊;贾磊 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06N3/0495 | 分类号: | G06N3/0495;G06N3/082 |
代理公司: | 北京鸿德海业知识产权代理有限公司 11412 | 代理人: | 田宏宾 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 压缩 神经网络 模型 方法 装置 | ||
本公开提供了一种压缩神经网络模型的方法、装置、电子设备及可读存储介质,涉及深度学习、云服务等人工智能技术领域。其中,压缩神经网络模型方法包括:获取待压缩神经网络模型;确定对应所述待压缩神经网络模型的第一比特宽度、第二比特宽度与目标稀疏率;根据所述第一比特宽度、所述第二比特宽度与所述目标稀疏率,得到目标数值;使用所述目标数值、所述第一比特宽度与所述第二比特宽度对所述待压缩神经网络模型进行压缩,得到所述待压缩神经网络模型的压缩结果。本公开能够简化神经网络模型的压缩步骤、提升神经网络模型的压缩效率。
技术领域
本公开涉及计算机处理技术领域,尤其涉及深度学习、云服务等人工智能技术领域,具体提供了一种压缩神经网络模型的方法、装置、电子设备及可读存储介质。
背景技术
当前,基于深度学习的语音识别、图像检测等技术在日常生活中的应用越来越广泛。为了不断提升神经网络模型在识别、检测时的精度,神经网络模型的复杂度和参数量都在持续增加。
为了更好地普及人工智能技术,减少人工智能的落地成本,如何在尽可能保证神经网络模型精度的同时,压缩神经网络模型的体积是人工智能技术落地长期面临的问题。
发明内容
根据本公开的第一方面,提供了一种压缩神经网络模型的方法,包括:获取待压缩神经网络模型;确定对应所述待压缩神经网络模型的第一比特宽度、第二比特宽度与目标稀疏率;根据所述第一比特宽度、所述第二比特宽度与所述目标稀疏率,得到目标数值;使用所述目标数值、所述第一比特宽度与所述第二比特宽度对所述待压缩神经网络模型进行压缩,得到所述待压缩神经网络模型的压缩结果。
根据本公开的第二方面,提供了一种压缩神经网络模型的装置,包括:获取单元,用于获取待压缩神经网络模型;确定单元,用于确定对应所述待压缩神经网络模型的第一比特宽度、第二比特宽度与目标稀疏率;处理单元,用于根据所述第一比特宽度、所述第二比特宽度与所述目标稀疏率,得到目标数值;压缩单元,用于使用所述目标数值、所述第一比特宽度与所述第二比特宽度对所述待压缩神经网络模型进行压缩,得到所述待压缩神经网络模型的压缩结果。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方法。
由以上技术方案可以看出,本公开通过所确定的第一比特宽度、第二比特宽度与目标稀疏率来压缩神经网络模型,确保了所得到的压缩结果具有较高的精度,能够简化神经网络模型的压缩步骤、提升神经网络模型的压缩效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是用来实现本公开实施例的压缩神经网络模型的方法的电子设备的框图。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111457675.5/2.html,转载请声明来源钻瓜专利网。