[发明专利]一种基于网络带宽分配的分布式深度学习性能优化方法有效
申请号: | 202010932914.7 | 申请日: | 2020-09-08 |
公开(公告)号: | CN112134812B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 徐飞;齐强 | 申请(专利权)人: | 华东师范大学 |
主分类号: | H04L47/783 | 分类号: | H04L47/783;G06N3/08;G06K9/62;G06F9/50 |
代理公司: | 上海蓝迪专利商标事务所(普通合伙) 31215 | 代理人: | 徐筱梅;张翔 |
地址: | 200241 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于网络带宽分配的分布式深度学习性能优化方法,其特点是采用网络带宽分配策略Nebula的方法,将集群的网络资源在作业训练过程中动态分配进行性能优化,具体包括:提交分布式深度学习作业预运行、获取分布式深度学习作业相关参数;收集运行节点相关特征参数等步骤。本发明与现有技术相比具有带宽资源得到合理利用,优化作业运行性能,大大提高了作业的平均完成时间,方法简便,进一步缓解了进程间的网络资源竞争,有效提升集群资源的利用率。 | ||
搜索关键词: | 一种 基于 网络带宽 分配 分布式 深度 学习 性能 优化 方法 | ||
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学,未经华东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/202010932914.7/,转载请声明来源钻瓜专利网。
- 上一篇:一种用于工艺品的支撑设备
- 下一篇:一种研磨装置的清洁结构