[发明专利]一种面向大规模机器学习系统的机器学习模型训练方法在审
申请号: | 201811000167.2 | 申请日: | 2018-08-30 |
公开(公告)号: | CN109445953A | 公开(公告)日: | 2019-03-08 |
发明(设计)人: | 张正超;倪焱;郑培凯;马超;肖臻 | 申请(专利权)人: | 北京大学 |
主分类号: | G06F9/54 | 分类号: | G06F9/54;G06N20/00 |
代理公司: | 北京君尚知识产权代理事务所(普通合伙) 11200 | 代理人: | 司立彬 |
地址: | 100871 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开一种面向大规模机器学习系统的机器学习模型训练方法。本方法为:1)将面向机器学习任务的专用计算机系统抽象为非一致性分布式内存的机器学习系统;2)各计算节点上的机器学习模型从该机器学习系统中读取本轮训练所需的训练数据和机器学习模型最新的参数数据;3)各计算节点分别利用当前获取的训练数据和参数数据训练本地的机器学习模型,计算机器学习模型的参数更新量并将其上传到该机器学习系统;4)该机器学习系统根据用户配置的参数更新方案和当前收到的参数更新量对参数进行更新。本发明使得机器学习算法的开发者无需关注分布式的具体实现,大大降低了大规模机器学习算法开发的难度。 | ||
搜索关键词: | 机器学习系统 机器学习模型 参数更新 机器学习算法 参数数据 计算节点 训练数据 专用计算机系统 读取 非一致性 计算机器 面向机器 用户配置 内存 抽象 开发 学习 更新 | ||
【主权项】:
1.一种面向大规模机器学习系统的机器学习模型训练方法,其步骤为:1)将面向机器学习任务的专用计算机系统抽象为非一致性分布式内存的机器学习系统;2)各计算节点上的机器学习模型从该机器学习系统中读取本轮训练所需的训练数据和机器学习模型最新的参数数据;3)各计算节点分别利用当前获取的训练数据和参数数据训练本地的机器学习模型,计算机器学习模型的参数更新量并将其上传到该机器学习系统;4)该机器学习系统根据用户配置的参数更新方案和当前收到的参数更新量对参数进行更新。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京大学,未经北京大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811000167.2/,转载请声明来源钻瓜专利网。