[发明专利]一种基于多GPU的BPNN训练方法和装置有效
申请号: | 201310054733.9 | 申请日: | 2013-02-20 |
公开(公告)号: | CN103996069B | 公开(公告)日: | 2018-04-03 |
发明(设计)人: | 欧阳剑;王勇 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
主分类号: | G06N3/08 | 分类号: | G06N3/08 |
代理公司: | 北京鸿德海业知识产权代理事务所(普通合伙)11412 | 代理人: | 袁媛 |
地址: | 100085 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供了一种基于多图形处理器(GPU)的反向传播神经网络(BPNN)训练方法和装置,其中方法包括S1、控制各GPU进行BPNN的正向计算,并在各GPU间同步正向计算输出;S2、控制各GPU进行BPNN的反向误差计算,并在各GPU间同步反向误差计算输出;S3、控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重。本发明能够减少多GPU的BPNN训练时的数据同步开销,提高多GPU的BPNN训练效率。 | ||
搜索关键词: | 一种 基于 gpu bpnn 训练 方法 装置 | ||
【主权项】:
一种基于多图形处理器GPU的反向传播神经网络BPNN训练方法,其特征在于,该方法包括:S1、控制各GPU进行BPNN的正向计算,并在每一层的计算结束后在各GPU之间同步当前层的正向计算输出;S2、控制各GPU进行BPNN的反向误差计算,并在每一层的计算结束后在各GPU之间同步当前层的反向误差计算输出;S3、控制各GPU根据所述同步得到的正向计算输出与所述同步得到的反向误差计算输出更新BPNN的权重,包括:在每个GPU上分别针对各层同步到的正向计算输出进行合并;在每个GPU上分别针对各层同步到的反向误差计算输出进行合并;利用各层完整的正向计算输出和完整的反向误差计算输出分别计算得到各层的权重。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310054733.9/,转载请声明来源钻瓜专利网。