[发明专利]卷积神经网络加速器及加速方法在审
| 申请号: | 201711400439.3 | 申请日: | 2017-12-22 |
| 公开(公告)号: | CN109871949A | 公开(公告)日: | 2019-06-11 |
| 发明(设计)人: | 贾泽;吴秉哲;袁之航;孙广宇;吴肇瑜 | 申请(专利权)人: | 泓图睿语(北京)科技有限公司 |
| 主分类号: | G06N3/063 | 分类号: | G06N3/063 |
| 代理公司: | 北京万象新悦知识产权代理有限公司 11360 | 代理人: | 黄凤茹 |
| 地址: | 100080 北*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 加速器 卷积 卷积神经网络 输入引脚 功耗 专用集成电路 加速器设计 片内存储器 软硬件协同 操作单元 乘加单元 函数单元 计算单元 神经网络 网络结构 线性整流 加法器 运算器 运行时 剪枝 池化 复用 适配 芯片 优化 网络 | ||
1.一种卷积神经网络加速器,包括卷积运算器、加法器、线性整流函数单元、池化操作单元、乘加单元、片内存储器、卷积权值输入引脚和全连接权值输入引脚,其中:
卷积的权值数据通过卷积权值输入引脚进入加速器,其余数据通过片内存储器获取,按对应通道分别送入卷积运算器中;
卷积运算器接受数据后进行乘法操作,乘法结果数据和卷积偏移数据送到加法器;
加法器将收到的数据进行加法数求和处理,输出数据到线性整流函数单元;
线性整流函数单元对数据进行线性整流函数处理,结果送入池化操作单元;
池化操作单元对数据进行平均池化操作,如果为末尾卷积,送入乘加单元中,其余情况送入片内存储器中存储待取;
全连接权值通过全连接权值输入引脚进入乘加单元后,乘加单元对数据进行乘法和相加操作,将数据通过输出引脚输出。
2.如权利要求1所述的卷积神经网络加速器,其特征是,采用多层融合的硬件架构,通过架构和算法的交互优化,使得特定的算法层的输出数据能够被有效地缓存在片内存储器中。
3.如权利要求1所述的卷积神经网络加速器,其特征是,电路设计方面采用异步电路。
4.一种卷积神经网络加速方法,包括以下步骤:
定点化步骤,通过定点化方法处理神经网络,将浮点数通过专用定点算法转化为更低比特数的定点数;
网络剪枝步骤,通过网络剪枝方法,自动对网络各个部分进行剪枝处理。
5.如权利要求4所述的方法,其特征是,所述定点化步骤包括:
针对网络中的权值,设置权值数据量阈值;
以设置的权值数据量阈值为中心截取分布,以该分布范围的整数位作为定点化的整数,余下的位数作为符号位和小数位。
6.如权利要求4所述的方法,其特征是,所述定点化步骤包括:
对于某一层的输出数据,对专用网络进行前向运算之后,得到所有输出数据的分布特征;
设置数据量阈值,以设置的数据量阈值为中心截取分布,得到一个数据的大概率分布范围;
以该分布范围的整数位设置数据流的定点化的整数,余下的位数作为符号位和小数位。
7.如权利要求4所述的方法,其特征是,在所述网络剪枝步骤中,采用剪枝比例自动分配算法,精确调整神经网络的每一层的剪枝比例。
8.如权利要求4所述的方法,其特征是,还包括硬件部署步骤,采用多层融合的架构和异步电路来部署硬件。
9.如权利要求4所述的方法,其特征是,在所述定点化步骤中,将浮点数通过专用定点算法转化为8位的定点数。
10.如权利要求4所述的方法,其特征是,在所述网络剪枝步骤中,对神经网络的每一层建立单独的剪枝参数,通过迭代调整网络的剪枝参数,分别对每层网络进行剪枝处理,裁剪可剪枝权值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于泓图睿语(北京)科技有限公司,未经泓图睿语(北京)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711400439.3/1.html,转载请声明来源钻瓜专利网。





