[发明专利]联邦学习模型的训练方法、装置、电子设备及存储介质在审
申请号: | 202110982129.7 | 申请日: | 2021-08-25 |
公开(公告)号: | CN113689000A | 公开(公告)日: | 2021-11-23 |
发明(设计)人: | 万晟;高大山;鞠策;谭奔;杨强 | 申请(专利权)人: | 深圳前海微众银行股份有限公司 |
主分类号: | G06N20/00 | 分类号: | G06N20/00 |
代理公司: | 北京派特恩知识产权代理有限公司 11270 | 代理人: | 李昂;张颖玲 |
地址: | 518052 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 联邦 学习 模型 训练 方法 装置 电子设备 存储 介质 | ||
本申请提供了一种联邦学习模型的训练方法、装置、电子设备、计算机可读存储介质及程序产品,包括:获取初始的教师模型和由参与联邦训练的多个参与方设备共同持有的公开数据集;基于教师模型和公开数据集,训练得到各参与方设备对应的学生模型;将各学生模型发送至对应的参与方设备,以使各参与方设备根据各自的私有训练数据对对应的学生模型进行更新以得到更新后的学生模型;根据各更新后的学生模型,对教师模型进行更新;当更新后的教师模型满足预设收敛条件时,将更新后的教师模型确定为训练好的联邦学习模型。如此在服务端设备根据公开数据集和教师模型训练学生模型,能够使联邦学习模型快速收敛,提高联邦学习模型的训练效率。
技术领域
本申请涉及人工智能技术领域,涉及但不限于一种联邦学习模型的训练方法、装置、电子设备、计算机可读存储介质及计算机程序产品。
背景技术
联邦学习技术是新兴的一种隐私保护技术,能够保证数据在不出本地的前提下,有效联合各方数据进行模型训练。
利用联邦学习对多个客户端进行联合训练,传统做法是初始化联邦学习模型,并且将该初始化的联邦学习模型发送至各个参与方进行本地训练,得到本地模型,然后服务端基于联邦平均算法聚合多个本地模型,将多个本地模型的加权平均作为更新后的联邦学习模型,重复上述步骤得到训练好的联邦学习模型。该传统方法在训练过程中联邦学习模型的收敛速度慢,训练效率低,将该模型应用于推荐系统时,影响获得推荐信息的效率。
发明内容
本申请实施例提供一种联邦学习模型的训练方法、装置、电子设备、计算机可读存储介质及计算机程序产品,能够在训练过程中使联邦学习模型快速收敛,提高联邦学习模型的训练效率。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种联邦学习模型的训练方法,应用于服务端设备,所述方法包括:
获取初始的教师模型和公开数据集,所述公开数据集由参与联邦训练的多个参与方设备共同持有;
基于所述教师模型和所述公开数据集,训练得到各参与方设备对应的学生模型;
将各学生模型发送至对应的参与方设备,以使各所述参与方设备根据各自的私有训练数据对对应的学生模型进行更新,得到更新后的学生模型;
根据所述各参与方设备发送的所述更新后的学生模型,对所述教师模型进行更新,得到更新后的教师模型;
当所述更新后的教师模型满足预设收敛条件时,将所述更新后的教师模型确定为训练好的联邦学习模型。
本申请实施例提供一种联邦学习模型的训练方法,应用于参与方设备,所述方法包括:
接收服务端设备发送的学生模型,所述学生模型由所述服务端设备根据教师模型和公开数据集训练得到,所述公开数据集由参与联邦训练的多个参与方设备共同持有;
获取所述参与方设备的私有训练数据;
根据所述私有训练数据对所述学生模型进行更新,得到更新后的学生模型;
将所述更新后的学生模型发送至所述服务端设备,以使所述服务端设备根据所述更新后的学生模型对所述教师模型进行更新,并在更新后的教师模型满足预设收敛条件时,将所述更新后的教师模型确定为训练好的联邦学习模型。
本申请实施例提供一种联邦学习模型的训练装置,所述装置包括:
第一获取模块,用于获取初始的教师模型和公开数据集,所述公开数据集由参与联邦训练的多个参与方设备共同持有;
第一训练模块,用于基于所述教师模型和所述公开数据集,训练得到各参与方设备对应的学生模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳前海微众银行股份有限公司,未经深圳前海微众银行股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110982129.7/2.html,转载请声明来源钻瓜专利网。