[发明专利]基于GPU的深度神经网络模型训练方法、装置和计算机设备有效
申请号: | 202010187555.7 | 申请日: | 2020-03-17 |
公开(公告)号: | CN111461293B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 李肯立;陈再龙;刘楚波;阳王东;周旭;肖国庆;唐卓;谭光华;朱宁波;李克勤 | 申请(专利权)人: | 湖南大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/063;G06N3/084;G06T1/20 |
代理公司: | 华进联合专利商标代理有限公司 44224 | 代理人: | 黄恕 |
地址: | 410001 湖*** | 国省代码: | 湖南;43 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 gpu 深度 神经网络 模型 训练 方法 装置 计算机 设备 | ||
本申请涉及一种基于GPU的深度神经网络模型训练方法、装置、计算机设备和存储介质。该方法包括:在深度神经网络模型首次训练时,将各隐藏层的输出数据压缩至GPU主存存储,得到压缩后的输出数据和GPU的主存余量;当主存余量未达到预设余量阈值时,根据输出数据的稀疏程度值和压缩后的输出数据占用GPU主存的时间比重,确定初步隐藏层;迭代训练深度神经网络模型时,根据初步隐藏层,将初步隐藏层的输出数据压缩至GPU主存存储,得到GPU主存的初步余量,直至初步余量达到预设余量阈值;当初步余量达到预设余量阈值时,确定需要将输出数据压缩至GPU主存存储的最终隐藏层,进行训练,以得到训练好的深度神经网络模型。采用本方法能够提高GPU资源利用率。
技术领域
本申请涉及计算机技术领域,特别是涉及一种基于GPU的深度神经网络模型训练方法、装置、计算机设备和存储介质。
背景技术
随着互联网和人工智能技术的发展,图像识别、语音识别、自然语言处理等智能任务在生活中无处不在。而神经网络作为当前实现这类智能任务最有效的算法之一,已经获得学术界和工业界广泛关注和应用。现代深度神经网络(DNN,Deep Neural Network)的训练通常依赖于GPU(Graphics Processing Unit,图形处理器)来训练复杂的数百层深度网络。
在当前的深度神经网络的训练过程中,各隐藏层会产生相应的中间输出数据,例如特征映射矩阵,其中,某些中间输出数据在前向传递过程和反向传递过程中都会用到,因此,现有的技术是将所有中间输出数据都进行对应的压缩存储。然而,上述方法占用的GPU主存资源较多,存在GPU资源利用率不高的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高GPU资源利用率的基于GPU的深度神经网络模型训练方法、装置、计算机设备和存储介质。
一种基于GPU的深度神经网络模型训练方法,所述方法包括:
在深度神经网络模型首次训练时,将各隐藏层对应的输出数据压缩至GPU主存存储,得到压缩后的输出数据和所述GPU的主存余量;
当所述GPU的主存余量未达到预设余量阈值时,根据所述输出数据的稀疏程度值和所述压缩后的输出数据占用所述GPU主存的时间比重,确定初步隐藏层;
迭代训练所述深度神经网络模型时,根据所述初步隐藏层,将所述初步隐藏层对应的输出数据压缩至所述GPU主存存储,得到所述GPU主存的初步余量,直至所述初步余量达到所述预设余量阈值;
当所述初步余量达到所述预设余量阈值时,确定需要将对应的输出数据压缩至所述GPU主存存储的最终隐藏层,根据所述最终隐藏层进行训练,以得到训练好的深度神经网络模型。
在其中一个实施例中,所述输出数据包括特征映射;所述在深度神经网络模型首次训练时,将各隐藏层对应的输出数据压缩至GPU主存存储,包括:在深度神经网络模型首次训练过程的前向传递过程中,在所述各隐藏层计算生成对应的所述特征映射后,将所述特征映射作为下一隐藏层的输入数据参与前向传递计算,将所述特征映射压缩至所述GPU主存存储。
在其中一个实施例中,所述方法还包括:在所述深度神经网络模型首次训练过程的反向传递过程中,在完成所述各隐藏层对应的解压缩步骤后,获取所述解压缩步骤的开始时间并存储;在深度神经网络模型下一次训练过程的反向传递过程中,根据所述解压缩步骤的开始时间,采用预解压缩的方式预先将前向传递过程中存储的压缩后的特征映射进行解压缩。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于湖南大学,未经湖南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010187555.7/2.html,转载请声明来源钻瓜专利网。