[发明专利]执行卷积神经网络中的卷积层的运算的方法和装置有效
申请号: | 201711212061.4 | 申请日: | 2017-11-28 |
公开(公告)号: | CN107729994B | 公开(公告)日: | 2020-05-26 |
发明(设计)人: | 李德林;凌坤;陈亮;李建军 | 申请(专利权)人: | 南京地平线机器人技术有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06F9/30 |
代理公司: | 北京市正见永申律师事务所 11497 | 代理人: | 黄小临;王怀章 |
地址: | 210046 江苏省南京市*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 执行 卷积 神经网络 中的 运算 方法 装置 | ||
公开了一种执行卷积神经网络中的卷积层的运算的方法和装置。该方法包括:在宽度和高度中的至少一个维度上折叠提供给卷积层的未折叠特征数据,以生成折叠特征数据;对折叠特征数据和该卷积层的原始卷积核执行预处理;在至少一个维度上折叠经预处理的原始卷积核,以生成与原始卷积核相对应的一个或多个折叠卷积核;以及使用所生成的一个或多个折叠卷积核对经预处理的折叠特征数据执行卷积运算。通过该方法,可以提高通道利用率,降低缓存占用量,并且可以提高运算效率。
技术领域
本发明总体上涉及卷积神经网络的技术领域,并且具体地涉及执行卷积神经网络中的卷积层的运算的方法和装置。
背景技术
基于卷积神经网络的深度学习技术已经被广泛地应用于图像识别、视频分析、自然语言处理、辅助驾驶等不同的领域。卷积神经网络中的运算量通常很大。期望能够使用诸如通用的中央处理器(CPU)、图形处理器(GPU)或专用加速器等硬件高效地执行卷积神经网络中的运算。
发明内容
一方面,提供一种执行卷积神经网络中的卷积层的运算的方法。该方法可以包括:在宽度和高度中的至少一个维度上折叠提供给卷积层的未折叠特征数据,以生成折叠特征数据;对折叠特征数据和该卷积层的原始卷积核执行预处理;在至少一个维度上折叠经预处理的原始卷积核,以生成与原始卷积核相对应的一个或多个折叠卷积核;以及使用所生成的一个或多个折叠卷积核对经预处理的折叠特征数据执行卷积运算。
另一方面,还提供一种执行卷积神经网络中的卷积层的运算的装置。该装置可以包括被配置为执行上述方法的一个或多个处理器。
另一方面,还提供一种执行卷积神经网络中的卷积层的运算的装置。该装置可以包括:第一折叠器,被配置为在宽度和高度中的至少一个维度上折叠提供给卷积层的未折叠特征数据,以生成折叠特征数据;预处理器,被配置为对折叠特征数据和卷积层的原始卷积核执行预处理;第二折叠器,被配置为在至少一个维度上折叠经预处理的原始卷积核,以生成与原始卷积核相对应的一个或多个折叠卷积核;以及运算器,被配置为使用所生成的一个或多个折叠卷积核对经预处理的折叠特征数据执行卷积运算。
另外,还提供一种非临时性存储介质,在其上存储有在被计算装置执行时执行上述方法的程序指令。
通过根据本公开的实施例的方法和/或装置,能够提高通道利用率,降低缓存占用量,并且可以提高运算效率。
附图说明
图1示出根据本公开的实施例的执行卷积神经网络中的卷积层的运算的方法的流程图。
图2示出根据本公开的实施例的在一个维度上折叠未折叠特征数据的示例。
图3示出根据本公开的实施例的在两个维度上折叠未折叠特征数据的示例。
图4示出根据本公开的实施例的对折叠特征数据和原始卷积核执行预处理的示例。
图5示出根据本公开的实施例的在一个维度上折叠经预处理的原始卷积核的示例。
图6示出根据本公开的实施例的在两个维度上折叠经预处理的原始卷积核的示例。
图7示出根据本公开的实施例的执行卷积运算的示例。
图8示出根据本公开的实施例的执行卷积运算的示例。
图9示出根据本公开的实施例的执行卷积神经网络中的卷积层的运算的装置的示例。
图10示出根据本公开的实施例的执行卷积神经网络中的卷积层的运算的装置的示例。
具体实施方式
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京地平线机器人技术有限公司,未经南京地平线机器人技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711212061.4/2.html,转载请声明来源钻瓜专利网。
- 上一篇:一种信息处理方法及移动终端
- 下一篇:一种图片截取方法及系统