[发明专利]一种面向跨筒仓联邦学习的保护本地隐私的梯度下降方法有效
申请号: | 202110698626.4 | 申请日: | 2021-06-23 |
公开(公告)号: | CN113449319B | 公开(公告)日: | 2022-08-19 |
发明(设计)人: | 何道敬;陆欣彤;潘凯云;刘川意;田志宏;张宏莉;蒋琳;廖清 | 申请(专利权)人: | 华东师范大学;上海境山科技有限公司 |
主分类号: | G06F21/60 | 分类号: | G06F21/60;G06N3/04;G06N3/08;G06N20/00 |
代理公司: | 上海蓝迪专利商标事务所(普通合伙) 31215 | 代理人: | 徐筱梅;张翔 |
地址: | 200241 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 面向 筒仓 联邦 学习 保护 本地 隐私 梯度 下降 方法 | ||
1.一种面向跨筒仓联邦学习的保护本地隐私的梯度下降方法,其特征在于,该方法包括以下步骤:
步骤1:客户端初始化,即每个客户端初始化本地模型参数,随机生成标量参数的初始值;
步骤2:每个客户端执行权重策略选择权重参数;
步骤3:每个客户端将训练后的模型更新参数广播给相邻可通信的客户端,同时接收来自内邻居客户端广播给自己的模型参数,并将本地的模型参数与接收到的邻居客户端的模型更新参数聚合;
步骤4:客户端更新本地模型参数;
步骤5:执行梯度下降操作,每个客户端更新梯度下降参数;
步骤6:循环步骤3-5,直到网络中传输的模型更新参数不再变化为止,即客户端计算出一致的共享最优模型,停止训练,跳出循环;其中:
步骤3所述每个客户端将训练后的模型更新参数广播给相邻可通信的客户端,同时接收来自内邻居广播给自己的模型参数,具体为:客户端i更新模型后将训练后的模型参数pj,i(t)xi(t),pj,i(t)yi(t)上传给网络中的邻居客户端此过程只上传模型参数而不会将全部参数上传,同时接收来自内邻居客户端的模型参数pi,j(t)xi(t),pi,j(t)yi(t);
步骤3所述将本地的模型参数与接收到的邻居客户端的模型更新参数聚合,其目的在于综合考虑多个客户端的模型参数,有利于进行模型优化;聚合结果的计算公式如下:
其中zi为客户端i聚合并计算所有接收到的模型参数与自己的模型参数的加权平均值。
2.根据权利要求1所述的梯度下降方法,其特征在于,步骤1所述每个客户端初始化本地模型参数,具体为:若网络中有n个客户端,每个客户端选择训练本地模型的算法;令xi为客户端i的梯度下降参数,wi为其本地模型参数,yi(0)为其标量参数;起始轮时,客户端i初始化本地模型参数,令以及在区间的范围中任取标量值ζ′和β,使并且为了防止敌手通过知道客户端标量参数yi(0)的初始值而解密更多的参数信息,客户端i从一个正值非零范围的分布随机生成标量参数yi(0)的初始值。
3.根据权利要求1所述的梯度下降方法,其特征在于,步骤2所述权重策略:令pj,i(t)为第t轮当客户端i发送其部分模型参数给邻居j时的模型权重参数,令为客户端i的外邻居数;当第t轮能够接收客户端i发送的消息的节点数满足时,对从范围为[ζ′,β]的分布中选择权重参数pi,i(t),计算赋给pj,i(t),即客户端i发送消息xi(t),yi(t)的比例设置为pj,i(t),注意若不满足,则权重参数pi,i(t)的值为1。
4.根据权利要求1所述的的梯度下降方法,其特征在于,所述步骤4具体为:利用聚合的结果来得到下一轮的模型参数,计算公式如下:wi为本地模型参数,yi为客户端标量参数,zi为客户端i聚合并计算所有接收到的模型参数与自己的模型参数的加权平均值。
5.根据权利要求1所述的梯度下降方法,其特征在于,步骤5所述更新梯度下降参数:利用聚合的结果、下一轮的模型参数更新梯度下降参数,计算公式如下:其中η为学习速率,li为损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东师范大学;上海境山科技有限公司,未经华东师范大学;上海境山科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110698626.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种天线结构及设备
- 下一篇:一种基于深度学习的自适应视点融合方法及系统