[发明专利]模型优化部署方法、系统、设备及存储介质在审
申请号: | 202110248323.2 | 申请日: | 2021-03-09 |
公开(公告)号: | CN113159276A | 公开(公告)日: | 2021-07-23 |
发明(设计)人: | 曹健;戴镇原;原浩强;夏立超;赵东宇 | 申请(专利权)人: | 北京大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063;G06N3/08 |
代理公司: | 北京致科知识产权代理有限公司 11672 | 代理人: | 魏红雅 |
地址: | 100871*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 模型 优化 部署 方法 系统 设备 存储 介质 | ||
本发明公开一种模型优化部署方法、系统、设备及存储介质,其中模型优化部署方法,包括:对卷积神经网络进行模型优化,获取适配脉冲神经网络的卷积神经网络;对优化后的卷积神经网络的参数进行编译,获取在脉冲神经网络芯片上可运行的参数配置文件;加载参数配置文件以对输入的待处理数据进行推理计算处理,获取数据处理结果。本发明可以保持卷积神经网络的高精度,又能融合SNN的高效低功耗,便于在终端平台上进行部署。
技术领域
本发明涉及计算机技术领域,尤其涉及一种模型优化部署方法、系统、设备及存储介质。
背景技术
卷积神经网络(Convolutional Neural Network,简称CNN)由于其具有相对成熟的网络结构和训练算法,以及高性能计算平台与大规模训练数据的支持,已被应用于多个领域。但是面对复杂任务,高精度的CNN往往复杂度较高,因此,在终端平台算力、内存、功耗、成本等限制下,高精度的CNN终端部署仍存在巨大挑战。
相比而言,脉冲神经网络(Spiking Neural Network,简称SNN)直接利用神经元的脉冲发放时间作为其输入与输出,充分利用时间信息,具备脉冲稀疏性,同时,脉冲神经元接收到脉冲时,将累计输入至膜电位,当膜电位达到阈值时才进行脉冲发放,即为事件驱动型。由于SNN具备脉冲稀疏性和其本身为事件驱动型,其可以更加高效地进行信息处理,实现低延时、低功耗。但是,SNN在较复杂任务上精度较低,将其直接部署到终端平台也存在问题,因此,如何将CNN与SNN进行适配融合既满足高精度要求又方便部署于终端平台是个亟需解决的技术问题。
发明内容
本发明提供一种模型优化部署方法、系统、设备及存储介质,用以提供一种CNN与SNN进行适配融合的模型优化部署方法,以获得既满足高精度且高效的要求又方便部署于终端平台的解决方案。
本发明提供的一种模型优化部署方法,包括:
对卷积神经网络进行模型优化,获取适配脉冲神经网络的卷积神经网络;
对优化后的卷积神经网络的参数进行编译,获取在脉冲神经网络芯片上可运行的参数配置文件;
加载参数配置文件以使脉冲神经网络芯片对输入的待处理数据进行推理计算处理。
本发明还提供一种模型优化部署系统,包括:
模型优化模块,用于对卷积神经网络进行模型优化,获取适配脉冲神经网络的卷积神经网络;
参数编译模块,用于对优化后的卷积神经网络的参数进行编译,获取在脉冲神经网络芯片上可运行的参数配置文件;以及
系统部署模块,用于加载参数配置文件以对输使脉冲神经网络芯片入的待处理数据进行推理计算处理。
本发明还提供一种电子设备,包括:处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序;
其中,所述处理器运行所述计算机程序时实现如上述的模型优化部署方法。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序可被执行如上述的模型优化部署方法。
本发明先对CNN做适配SNN的模型优化,然后由CNN转换为SNN并部署。通过对卷积神经网络进行模型优化,使得优化后的CNN既能保持卷积神经网络的高精度,又能融合SNN的高效低功耗,从而便于在终端平台上进行部署;通过对优化后的卷积神经网络的参数进行编译,形成可运行的参数配置文件,使得图像识别数据处理时SNN芯片能够自动加载模型,并自动运行,实现软件与硬件的无缝对接,从而便于提升终端平台的运行速度。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110248323.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种青蒿精油抑菌皂及其制备工艺
- 下一篇:一种装饰品香薰加湿器