[发明专利]数据运算的加速方法、装置、终端及可读存储介质有效
申请号: | 201810500501.4 | 申请日: | 2018-05-23 |
公开(公告)号: | CN108681773B | 公开(公告)日: | 2020-01-10 |
发明(设计)人: | 尚海豹;李昊沅;左小祥;周蔚;李峰;程君 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06T1/20 |
代理公司: | 11270 北京派特恩知识产权代理有限公司 | 代理人: | 蒋雅洁;张颖玲 |
地址: | 518000 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 数据组 运算过程 运算 可读存储介质 读取 缓存 存储单元 数据运算 终端 待运算数据 并行运算 矩阵数据 数据读取 数据元素 占用率 调用 存储 | ||
本发明实施例公开了一种数据运算的加速方法、装置、终端及可读存储介质,方法包括:读取各存储单元内待运算的数据组,将读取的数据组缓存至GPU,调用GPU对缓存的数据组进行并行运算,其中,上述单个存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组。相较于现有技术而言,本发明实施例在运算过程中,减少了运算过程中数据读取的次数,同时还能够有效的提升待运算数据的运算速度,另外由于本发明实施例将运算过程从CPU转移到了GPU上,因此还可以降低CPU的占用率,保障终端的正常运行。
技术领域
本发明涉及人工智能技术领域,尤其涉及一种数据运算的加速方法、装置、终端及可读存储介质。
背景技术
随着AI(Artificial Intelligence,人工智能)技术的飞速发展,许多AI项目开始在终端上落地。目前,大多数的AI项目是基于前馈神经网络的,前馈神经网络有一个输入层和一个输出层,从输入层开始,经过一系列的计算层,最后产生输出。在计算过程中,每个神经元只与前一层的神经元相连,接收前一层的输出,并输出给下一层.各层间没有反馈,因此前馈神经网络的性能瓶颈主要集中在各个层的运算上。
目前,业界主要是基于CPU(Central Processing Unit,中央处理器)来实现各个层的运算,但对于数据规模较大、网络模型较复杂的高计算强度场景,利用CPU则运算速度比较慢,并且运算过程还会大量的占用CPU,影响终端的正常运行。
发明内容
本发明实施例的主要目的在于提供一种数据运算的加速方法、装置、终端及可读存储介质,可以解决现有技术中前馈神经网络的运算过程速度较慢,且会影响终端正常运行的技术问题。
为实现上述目的,本发明实施例第一方面提供一种数据运算的加速方法,该方法包括:
读取各存储单元内待运算的数据组,单个所述存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;
将读取的所述数据组缓存至GPU(Graphics Processing Unit,图形处理器);
调用所述GPU对所述数据组进行并行运算。
为实现上述目的,本发明实施例第二方面提供一种数据运算的加速装置,该装置包括:
读取模块,用于读取各存储单元内待运算的数据组,单个所述存储单元中已存储待运算的各个矩阵数据中,位于相同位置的数据元素构成的数据组;
存储模块,用于将读取的所述数据组缓存至GPU;
运算模块,用于调用所述GPU对所述数据组进行并行运算。
为实现上述目的,本发明实施例第三方面提供一种终端,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,该计算机程序为数据运算的加速程序,所述处理器执行所述计算机程序时,实现本发明实施例第一方面提供的数据运算的加速方法中的各个步骤。
为实现上述目的,本发明实施例第四方面提供一种存储介质,其上存储有计算机程序,该计算机程序为数据运算的加速程序,所述计算机程序被处理器执行时,实现本发明实施例第一方面提供的数据运算的加速方法中的各个步骤。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810500501.4/2.html,转载请声明来源钻瓜专利网。