[发明专利]卷积神经网络实现方法、装置、硬件加速器、存储介质有效
申请号: | 201810195606.3 | 申请日: | 2018-03-09 |
公开(公告)号: | CN110245748B | 公开(公告)日: | 2021-07-13 |
发明(设计)人: | 江帆;单羿;钟华松 | 申请(专利权)人: | 赛灵思电子科技(北京)有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063 |
代理公司: | 北京展翼知识产权代理事务所(特殊普通合伙) 11452 | 代理人: | 屠长存 |
地址: | 100029 北京市朝阳区安定路*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积 神经网络 实现 方法 装置 硬件 加速器 存储 介质 | ||
本发明公开了一种卷积神经网络实现方法、装置、硬件加速器、存储介质。通过对输入数据存储方式进行调度,使得能够得到适于运算处理的输入数据。在一个实施例中,为第一次分组卷积计算的输出数据分配大于其总数据量的存储空间,将第一个分组的输出数据拷贝到后面的预留存储空间中,然后从新的地址开始执行第二次分组卷积计算,实现了两个分组数据之间的交互。在另一个实施例中,分配较大的存储空间,将前后两个卷积计算的输出数据连续存储到其中,简单地实现了两个输出数据的级联。在另一个实施例中,通过对连续存储的多个通道的数据的通道起始位置进行不同的偏移操作,实现了矩阵向左、右、上、下移位的效果。由此,可以加速卷积神经网络计算。
技术领域
本发明涉及一种卷积神经网络实现,特别涉及一种卷积神经网络计算的加速方法。
背景技术
卷积神经网络(Convolutional Neural Networks,CNN),是一种深度前馈人工神经网络,已被应用于诸多领域,并且在一些领域已经超过了人类的能力,如图像识别。
近年来,基于CNN的网络结构设计得到了越来越多人的关注。在性能逐渐提高的同时,人们也意识到,如果想在计算能力以及功耗严格受限的移动设备或者嵌入式设备应用神经网络模型,就必须降低模型的规模。目前,减少模型规模的主要有两种方法:一种是基于已有的较大规模的模型进行压缩,将大模型转换成小模型。主流技术包括:裁剪(pruning),量化(quantization),蒸馏(distilling)等。另一种,直接设计精简的网络模型,包括MobileNet,MobileNetV2,ShuffleNet,ShiftNet等。
MobileNet,ShuffleNet只考虑了如何降低网络的计算量(Flops)和参数量(weights),ShiftNet只考虑了如何降低网络的参数量(weights),它们降低这些指标的同时,也付出了一定的代价。而在实际使用中,推理(Inference)速度并不是完全和计算量、参数量成反比的。
因此,仍然需要一种能够加速卷积神经网络计算的方案。
发明内容
本发明要解决的技术问题是提供一种卷积神经网络计算的实现方案,器能够进一步加速卷积神经网络计算。
根据本发明的一个方面,提供了一种卷积神经网络实现方法,包括:将第一次分组卷积计算的输出数据连续存储到为其预先分配的存储空间中,预先分配的存储空间的尺寸大于第一次分组卷积计算的输出数据的总数据量,从而在存储空间尾部具有部分空闲的预留存储空间;将第一个分组的输出数据前部的第一部分拷贝到最后一个分组的输出数据之后的预留存储空间中;以及从存储空间中新的地址开始读取数据,以执行第二次分组卷积计算,新的地址被设置为使得每个分组的卷积计算的输入都包含第一次分组卷积计算中相邻两个分组的部分输出结果。
由此,简单地实现了两个分组的数据之间的交互,显著降低了需要拷贝的数据量,减少了数据拷贝所需要的时间,提高了卷积神经网络的计算速度。
可选地,新的地址为第一个分组的输出数据的第一部分之后紧接的地址或第一部分中除了第一个地址以外的地址。
根据本发明的另一个方面,提供了一种卷积神经网络实现装置,包括:存储装置,用于将第一次分组卷积计算的输出数据连续存储到为其预先分配的存储空间中,预先分配的存储空间的尺寸大于第一次分组卷积计算的输出数据的总数据量,从而在存储空间尾部具有部分空闲的预留存储空间;拷贝装置,用于将第一个分组的输出数据前部的第一部分拷贝到最后一个分组的输出数据之后的预留存储空间中;以及读取装置从存储空间中新的地址开始读取数据,以执行第二次分组卷积计算,新的地址被设置为使得每个分组的卷积计算的输入都包含第一次分组卷积计算中相邻两个分组的部分输出结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于赛灵思电子科技(北京)有限公司,未经赛灵思电子科技(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810195606.3/2.html,转载请声明来源钻瓜专利网。