[发明专利]面向推荐系统矩阵分解方法的异构多XPU机器学习系统有效
申请号: | 202011142652.0 | 申请日: | 2020-10-23 |
公开(公告)号: | CN111967590B | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 何水兵;黄一智;刘彦;银燕龙;杨弢 | 申请(专利权)人: | 之江实验室 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06F9/38;G06F9/50;G06F17/16;G06Q30/06 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 孙孟辉 |
地址: | 310023 浙江省杭州市余*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 面向 推荐 系统 矩阵 分解 方法 异构多 xpu 机器 学习 | ||
1.面向推荐系统矩阵分解方法的异构多XPU机器学习方法,其特征在于执行过程包括如下步骤:
S1,XPU工作器将自身XPU信息传给参数服务器,参数服务器调用自身DataManager模块计算数据分配的信息;
S2,XPU工作器向参数服务器发送数据请求,参数服务器根据数据分配信息发送对应数据给XPU工作器;
S3,XPU工作器向参数服务器请求初始化参数,参数服务器随机初始化参数;
S4,如果XPU工作器具备并行能力,则依据并行能力网格化数据,建立内部多线程,如果不具备,则进入步骤S5;
S5,XPU工作器从参数服务器Pull参数,参数服务器发送参数给XPU工作器;
S6,XPU工作器并行计算分到的数据,异步更新参数矩阵;
S7,XPU工作器向参数服务器Push计算好的参数,参数服务器同步更新所有XPU工作器的参数,并计算loss;
S8,重复5-7,直到loss合适。
2.如权利要求1所述的面向推荐系统矩阵分解方法的异构多XPU机器学习方法,其特征在于所述的步骤S1,包括如下步骤:
S11,XPU工作器探查并发送自身XPU信息给参数服务器;
S12,XPU工作器向参数服务器发送初始化数据请求,参数服务器调用自身DataManager模块计算数据分配的信息,并发送给XPU工作器;
S13,XPU工作器根据返回的信息,建立相应的接收数据结构。
3.如权利要求1所述的面向推荐系统矩阵分解方法的异构多XPU机器学习方法,其特征在于请求的数据为评分矩阵,参数包括根据评分矩阵分解的P、Q特征参数,P、Q特征参数随每一轮计算过程而发生更新,当评分矩阵行/列数较多时,为XPU工作器按行/列进行数据分配,XPU工作器上用于更新P/Q矩阵的行/列数据不依赖其他XPU工作器上的行/列数据,因此,XPU工作器只在第一轮计算前向参数服务器Pull参数矩阵P和Q,并在最后一轮计算后向参数服务器Push参数矩阵P和Q,中间计算过程仅Pull、Push参数矩阵Q/P。
4.如权利要求1所述的面向推荐系统矩阵分解方法的异构多XPU机器学习方法,其特征在于所述步骤S4的网格化数据,采用正交网格计算特征参数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011142652.0/1.html,转载请声明来源钻瓜专利网。