[发明专利]神经网络模型中网络层的分配方法与装置有效
申请号: | 202111614444.0 | 申请日: | 2021-12-27 |
公开(公告)号: | CN114418063B | 公开(公告)日: | 2023-01-06 |
发明(设计)人: | 刘吉;吴志华;冯丹蕾;张敏旭;吴鑫烜;姚雪峰;马北辰;窦德景;于佃海;马艳军 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 北京鸿德海业知识产权代理有限公司 11412 | 代理人: | 田宏宾 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 网络 分配 方法 装置 | ||
1.一种神经网络模型中网络层的分配方法,包括:
获取待处理神经网络模型与计算设备集合;
根据所述待处理神经网络模型中的网络层与所述计算设备集合中的计算设备,生成目标数量的分配方案,所述分配方案中包含网络层与计算设备之间的对应关系;
根据计算设备的设备类型,将各个分配方案中对应相同的设备类型的网络层合并为一个阶段,得到各个分配方案的合并结果;
根据各个分配方案的合并结果,得到各个分配方案的适应值;
根据所述适应值从各个分配方案中确定目标分配方案,将所述目标分配方案作为所述待处理神经网络模型中网络层的分配结果;
其中,所述根据各个分配方案的合并结果,得到各个分配方案的适应值包括:
针对每个分配方案的合并结果,根据该分配方案的合并结果中每个阶段对应的计算设备数量、初始计算耗时与初始通信耗时、以及第一批量大小,得到每个阶段的计算耗时与通信耗时;
根据每个阶段的计算耗时与通信耗时,得到每个阶段的执行时间;
根据每个阶段的执行时间与第二批量大小,得到每个阶段的吞吐量;
根据训练次数、总样本数量与每个阶段的吞吐量,得到总执行时间;
根据所述总执行时间与该分配方案包含的计算设备的属性信息,得到该分配方案的适应值。
2.根据权利要求1所述的方法,其中,所述目标数量是根据训练数据的批量大小与预设迭代次数得到的。
3.根据权利要求1-2中任一项所述的方法,其中,所述根据所述待处理神经网络模型中的网络层与所述计算设备集合中的计算设备,生成目标数量的分配方案包括:
针对所述待处理神经网络模型中的每个网络层,获取该网络层在所述计算设备集合中的各个计算设备上的运行信息;
将运行信息满足第一预设要求的计算设备,作为该网络层的目标计算设备;
根据每个网络层、以及每个网络层的目标计算设备,生成第一分配方案;
根据所述待处理神经网络模型中的每个网络层、以及针对每个网络层从所述计算设备集合中随机选取的一个计算设备,生成第二分配方案;
重复执行生成所述第二分配方案的步骤,直至所述第一分配方案与所述第二分配方案的数量之和达到所述目标数量。
4.根据权利要求1所述的方法,其中,所述根据所述适应值从各个分配方案中确定目标分配方案包括:
将所述目标数量的分配方案作为种群;
根据所述适应值,从所述种群中选择两个分配方案作为父代分配方案与母代分配方案;
根据所述父代分配方案与所述母代分配方案,生成第一子代分配方案与第二子代分配方案;
根据所述第一子代分配方案与所述第二子代分配方案,生成两个新的子代分配方案,并添加至所述种群中;
计算所述两个新的子代分配方案的适应值之后,将所述种群中适应值满足第二预设条件的两个分配方案进行移除;
重复执行上述除将所述目标数量的分配方案作为种群以外的步骤,直至达到预设迭代次数,将所述种群中适应值最小的分配方案作为所述目标分配方案。
5.根据权利要求1所述的方法,还包括,
在将所述目标分配方案作为所述待处理神经网络模型中网络层的分配结果之后,根据所述目标分配方案,将所述待处理神经网络模型中的网络层分配到对应的计算设备;
将分配到相同的设备类型的计算设备上的网络层合并为一个阶段;
使用训练数据在相应的计算设备上对各个阶段进行并行训练,以完成对所述待处理神经网络模型的训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111614444.0/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种远程值守式电子烟销售方法
- 下一篇:一种高强度流体分离介质