[发明专利]一种通用CNN推理加速器及其控制方法、可读存储介质在审
| 申请号: | 201911243224.4 | 申请日: | 2019-12-06 |
| 公开(公告)号: | CN111105015A | 公开(公告)日: | 2020-05-05 |
| 发明(设计)人: | 徐天赐;景璐 | 申请(专利权)人: | 浪潮(北京)电子信息产业有限公司 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N5/04 |
| 代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 刘翠香 |
| 地址: | 100085 北京市海*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 通用 cnn 推理 加速器 及其 控制 方法 可读 存储 介质 | ||
本申请公开了一种通用CNN推理加速器,包括:预处理模块,用于获取目标数据、卷积核数据以及模块时序;卷积与激活模块,用于对目标数据进行卷积计算和激活计算;池化模块,用于对目标数据进行池化计算或数据结构转换;模块时序包括目标数据进入卷积与激活模块和/或池化模块的顺序。本申请中通过池化模块可对目标数据进行池化计算或数据结构转换,输出所需尺寸的目标数据,解除了目标数据计算尺寸的限制;同时利用模块时序可灵活调整目标数据通过卷积与激活模块或池化模块的顺序,使目标数据可多次进入或绕过某一模块,解除了目标数据在算子顺序上的限制。本申请还公开了具有相同有益效果的通用CNN推理加速器的控制方法及可读存储介质。
技术领域
本发明涉及CNN推力加速领域,特别涉及一种通用CNN推理加速器及其控制方法、可读存储介质。
背景技术
近几年,随着计算机计算能力的增长以及CNN(Convolutional Neural Networks,卷积神经网络)结构的发展,CNN网络的识别准确度有了很大提高,与此同时,CNN的深度不断加深,网络结构更加复杂,计算量也越来越大,因此需要GPU(Graphics ProcessingUnit,图形处理器)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、ASIC(Application Specific Integrated Circuit,应用集成电路)等异构计算设备来加速CNN推理计算。
基于FPGA的通用CNN推理加速器有两种主流实现方法:多层实例实现与单层实例实现:多层实例实现将CNN模型中的每一隐含层推理计算都映射为FPGA中的硬件实现,数据流从第一层输入到最后一层输出,单次通过FPGA中的硬件实现完成CNN推理计算;单层实例实现将CNN模型中的一层隐含层推理计算抽象为FPGA中的硬件实现,数据流循环往复地经过FPGA的硬件实现从而完成CNN推理计算。
其中,多层实例实现受限于CNN的层数,层数越多的CNN推理模型在FPGA中实现的硬件资源压力越大;而单层实例实现受限于相对固定的单层神经网络计算中的算子顺序,当不同CNN模型的算子顺序不同时,通用CNN推理加速器中的FPGA硬件实现难以满足灵活多变的算子顺序,有时必须重新改变硬件实现来满足CNN模型的要求。
因此,如何提供一种解决上述技术问题的方案是目前本领域技术人员需要解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种支持多种尺寸、模块时序灵活配置的通用CNN推理加速器及其控制方法、可读存储介质。其具体方案如下:
一种通用CNN推理加速器,包括:
预处理模块,用于获取目标数据、卷积核数据以及模块时序;
卷积与激活模块,用于对所述目标数据进行卷积计算和激活计算;
池化模块,用于对所述目标数据进行池化计算或数据结构转换;
所述模块时序包括所述目标数据进入所述卷积与激活模块和/或所述池化模块的顺序。
优选的,所述池化模块包括:
通用池化模块,用于对所述目标数据进行预设尺寸的池化计算或数据结构转换;
全尺寸池化模块,用于对所述目标数据进行全尺寸的池化计算;
所述模块时序具体包括所述目标数据通过所述卷积与激活模块和/或所述通用池化模块和/或所述全尺寸池化模块的顺序。
优选的,所述池化计算具体为:最大值池化计算或平均池化计算。
优选的,所述通用CNN推理加速器为单层实例实现的推理加速器。
优选的,所述通用CNN推理加速器为多层实例实现的推理加速器。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浪潮(北京)电子信息产业有限公司,未经浪潮(北京)电子信息产业有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911243224.4/2.html,转载请声明来源钻瓜专利网。





