[发明专利]联邦学习模型的更新方法、装置、电子设备及存储介质有效
申请号: | 202011640520.0 | 申请日: | 2020-12-31 |
公开(公告)号: | CN112732297B | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 朱星华;王健宗 | 申请(专利权)人: | 平安科技(深圳)有限公司 |
主分类号: | G06F8/65 | 分类号: | G06F8/65;G06N20/00 |
代理公司: | 深圳市沃德知识产权代理事务所(普通合伙) 44347 | 代理人: | 高杰;于志光 |
地址: | 518000 广东省深圳市福田区福*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 联邦 学习 模型 更新 方法 装置 电子设备 存储 介质 | ||
本发明涉及智能决策技术,揭露了一种联邦学习模型的更新方法,包括:服务器端接收参与联邦学习的目标客户端发送的数据移除请求,在根据数据移除请求进行数据移除之后,向目标客户端以及参与联邦学习的其他客户端发送数据移除消息,根据预设的梯度公式计算移除数据的梯度参数,其他客户端根据预设的矩阵公式计算得到黑塞矩阵根据所述梯度参数、所述黑塞矩阵和预设的模型参数公式更新联邦学习模型的参数此外,本发明还涉及区块链技术,所述梯度参数可存储于区块链的节点。本发明还提出一种联邦学习模型的更新装置、电子设备以及计算机可读存储介质。本发明可以解决联邦学习模型的更新效率低的问题。
技术领域
本发明涉及智能决策领域,尤其涉及一种联邦学习模型的更新方法、装置、电子设备及计算机可读存储介质。
背景技术
现在人们越来越注重数据信息的安全性,为了保障大数据交换时的信息安全、保护终端数据和个人数据隐私,出现了在多参与方或多计算结点之间开展高效率的机器学习的方法,即联邦学习方法。
现有技术中,若有参与者在完成联邦模型训练后想要退出联邦系统,或是参与者希望移除一部分私有数据对联邦模型造成的影响,需要在将数据删除之后对联邦模型进行重新训练以更新联邦模型的参数。但是该方法在算力与通信方面的成本非常巨大,同时要联合各参与方给予配合,耗时耗力。因此,现有技术中,在移除数据之后,对联邦学习模型进行参数更新的效率不高。
发明内容
本发明提供一种联邦学习模型的更新方法、装置及计算机可读存储介质,其主要目的在于解决联邦学习模型的更新效率低的问题。
为实现上述目的,本发明提供的一种应用于服务器端的联邦学习模型的更新方法,包括:
接收参与联邦学习的目标客户端发送的数据移除请求;
在从用于联邦学习模型的数据中删除所述移除数据之后,向参与所述参与联邦学习的所有客户端发送数据移除消息,以使得所述目标客户端根据梯度公式计算所述移除数据关于所述联邦学习模型的梯度参数,以及使得各个客户端根据矩阵公式计算各个客户端所包含的全量数据在所述移除数据移除之后所述联邦学习模型的损失函数的黑塞矩阵;
接收所述目标客户端发送的梯度参数和各个客户端发送的黑塞矩阵;
根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数;
利用所述更新参数对所述联邦学习模型进行更新。
可选地,所述预设模型参数公式包括:
其中,w(-m)为所述更新参数,w为所述联邦学习模型的参数向量,为第i个客户端的黑塞矩阵,Δ为所述梯度参数,m为所述移除数据的个数,k为参与所述联邦学习的所有客户端的个数。
可选地,所述利用所述更新参数对所述联邦学习模型进行更新之后,所述方法还包括:
将更新后的所述联邦学习模型发送至参与联邦学习的所有客户端。
可选地,所述根据所述梯度参数、所述黑塞矩阵和预设模型参数公式计算更新参数之前,所述方法还包括:
判断所述梯度参数或所述黑塞矩阵是否为加密数据;
若所述梯度参数或所述黑塞矩阵中是加密数据,根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵。
可选地,所述根据预设的解密公式对所述加密数据进行解密,得到解密后的梯度参数和黑塞矩阵,包括:
所述预设的解密公式为:
m=L(cλmodn2)*μmodn
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于平安科技(深圳)有限公司,未经平安科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011640520.0/2.html,转载请声明来源钻瓜专利网。