[发明专利]卷积神经网络中的加速器及其操作方法在审
申请号: | 201710625400.5 | 申请日: | 2017-07-27 |
公开(公告)号: | CN107665365A | 公开(公告)日: | 2018-02-06 |
发明(设计)人: | 朴永焕;金庆勋;李承远;赵韩秀;金硕镇 | 申请(专利权)人: | 三星电子株式会社 |
主分类号: | G06N3/08 | 分类号: | G06N3/08;G06N3/063 |
代理公司: | 北京市柳沈律师事务所11105 | 代理人: | 钱大勇 |
地址: | 韩国*** | 国省代码: | 暂无信息 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 中的 加速器 及其 操作方法 | ||
1.一种在卷积神经网络中的加速器中实现的处理元件(PE),包括:
第一缓冲器,被配置为将输入数据传送到另一个PE;
第二缓冲器,被配置为发送基于所述输入数据被处理的外部输出数据;和
操作单元,被配置为通过对所述输入数据执行第一操作来生成中间数据,以将所述中间数据存储在所述第二缓冲器中,以通过针对从第一缓冲器被反馈的中间数据执行第二操作来生成所述输出数据,并且将输出数据存储在第二缓冲器中。
2.根据权利要求1所述的PE,其中所述第一操作和所述第二操作中的每一个与卷积层、非线性层和归一化层中的至少一个相关。
3.一种在卷积神经网络中包括多个处理元件(PE)的加速器,其中所述多个PE中的每一个包括:
第一缓冲器,被配置为将输入数据传送到另一个PE;
第二缓冲器,被配置为发送基于所述输入数据被处理的外部输出数据;和
操作单元,被配置为通过对所述输入数据执行第一操作来生成中间数据,以将所述中间数据存储在所述第二缓冲器中,通过针对从第二缓冲器被反馈的中间数据执行第二操作来生成所述输出数据,并且将输出数据存储在第二缓冲器中。
4.根据权利要求3所述的加速器,其中所述第一操作和所述第二操作中的每一个与卷积层、非线性层和归一化层中的至少一个相关。
5.根据权利要求3所述的加速器,还包括:
第三个缓冲区,和
汇集单元,被配置为接收从多个PE发送的多个输出数据,并且对多个输出数据执行汇集操作,以将输出数据发送到第三缓冲器。
6.根据权利要求5所述的加速器,还包括缓冲器控制器,其被配置为如果最终数据等于或大于预定大小,则控制所述第三缓冲器将累积在所述第三缓冲器中的最终数据发送到外部存储器。
7.根据权利要求3所述的加速器,其中所述多个PE被分组成预定的矩阵形式。
8.根据权利要求7所述的加速器,其中,一个汇集单元由分组的PE共享。
9.根据权利要求3所述的加速器,其中,所述多个PE中的至少一个还包括汇集单元,被配置为从相邻PE接收相邻输出数据并且针对相邻输出数据和存储在第二缓冲区中所述输出数据执行汇集操作。
10.根据权利要求3所述的加速器,其中根据来自外部处理器的命令控制所述加速器。
11.根据权利要求3所述的加速器,其中,所述输出数据被发送到所述多个PE、所述汇集单元和所述外部存储器中的任何一个。
12.一种用于操作包括卷积神经网络中的多个处理元件(PE)的加速器的方法,包括:
将输入图像存储在第一缓冲器中并将输入数据传送到另一个PE;
通过对所述输入数据执行第一操作产生中间数据并将所述中间数据存储在第二缓冲器中;
通过对从第二缓冲器反馈的中间数据执行第二操作产生输出数据并将输出数据存储在第二缓冲器中;和
将输出数据从第二缓冲器输出到外部。
13.根据权利要求12所述的方法,其中所述第一操作和所述第二操作中的每一个与卷积层、非线性层和归一化层中的至少一个相关。
14.根据权利要求12所述的方法,还包括接收从所述多个PE发送的多个输出数据,并且针对所述多个输出数据执行汇集操作,以将所述输出数据发送到第三缓冲器。
15.根据权利要求12所述的方法,还包括将所述多个PE分组成预定的矩阵形式。
16.根据权利要求12所述的方法,还包括从相邻PE接收相邻的输出数据并且相对于存储在所述第二缓冲器中的所述相邻输出数据和所述输出数据执行汇集操作。
17.根据权利要求12所述的方法,其中所述外部是所述多个PE、所述汇集单元和所述外部存储器中的任何一个。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于三星电子株式会社,未经三星电子株式会社许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710625400.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:神经网络方法和设备
- 下一篇:一种电力设备检修人员智能管理系统