[发明专利]一种基于可信网络的目标识别联邦深度学习方法有效
| 申请号: | 202110394016.5 | 申请日: | 2021-04-13 |
| 公开(公告)号: | CN112949837B | 公开(公告)日: | 2022-11-11 |
| 发明(设计)人: | 杨娟;郑艺泽 | 申请(专利权)人: | 中国人民武装警察部队警官学院 |
| 主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 重庆晟轩知识产权代理事务所(普通合伙) 50238 | 代理人: | 王海凤 |
| 地址: | 610213 四川省成都*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 可信 网络 目标 识别 联邦 深度 学习方法 | ||
1.一种基于可信网络的目标识别联邦深度学习方法,其特征在于,包括如下步骤:
S100:设有K个客户端,对每个客户端构建一个局部模型并对局部模型进行训练,所述K个客户端对应的局部模型结构均相同;
S110:所述局部模型是基于传统CNN进行改进而设计的,具体结构为:
前六层由卷积层和最大池化层交替组成;
第七层是flatten展平层,将输入张量减少一个维度,完成将二维平面数据转变为一维;
第八层是dropout正则化层,通过在每次训练中随机地删除部分神经元来减少模型的过拟合,使用dropout后,相当于减少了网络参数;
第九层是包含32个神经元的简单全连接层,激活函数采用ReLU;
第十层输出层是全连接层,由5个神经元组成,激活函数为Softmax;
S120:训练局部模型
S121:采集N个图像,对图像进行预处理后,给每个图像打上类别标签,每个图像和其对应的类别标签作为训练样本,所有训练样本构成训练集;
S122:先初始化局部模型的所有参数,再将所有训练样本输入S110构建的局部模型对局部模型进行训练;
采用反向传播的方法来传递误差信息,并运用Adam优化器来更新局部模型中的参数,采用交叉熵构建损失函数;
S200:构建和训练联邦模型Mu;
S210:所述联邦模型Mu的结构与局部模型相同;
S220:训练联邦模型Mu;
S221:基于每个客户端对应的训练集对每个客户端对应的局部模型进行训练,并得到每个客户端对应训练后的模型参数wpar,所述每个客户端对应训练后的模型参数wpar则为联邦模型Mu的训练样本;
S222:将所有联邦模型Mu的训练样本输入联邦模型Mu中进行训练,具体训练过程如下:
1)采用每个客户端对应训练后的模型参数wpar对联邦模型Mu的参数w0进行初始化,并将初始化的参数w0广播给所有客户端对应的局部模型
设定训练次数T;
2)t=1;
3)设定每一联邦模型Mu的更新轮次E;
4)令e=1;
5)确定Ce,Ce为随机选取的max(Kα,1)个客户端的集合,α为每一通信轮中进行计算的客户端占比;
6)对第k个局部模型更新模型参数,即用第k个局部模型的参数的加权平均值进行参数更新;
7)将更新后的模型参数发送给参数服务器;
8)参数服务器将收到的模型参数进行聚合,即对收到的模型参数使用加权平均:
9)令e=e+1;
10)判断e≥E,则执行下一步,否则返回步骤5);
11)令t=t+1;
12)判断t≥T,将聚合后的参数输出参数给服务器,并则执行下一步,否则返回步骤3)继续训练;
13)所述参数服务器将聚合后的参数广播给所有客户端对应的局部模型
14)采用更新第k个局部模型的参数并令k=1,2.3…K,其中K表示所有客户端对应的局部模型的数量;
15)从参数服务器得最新的模型参数,设
16)设置迭代次数S,i为迭代变量;
17)令i=1;
18)将第k个局部模型的训练集Dk划分为批量Q的大小;批量数量A为集合,a为批量数量A的批量序号;
19)设
20)令a=1;
21)计算批量梯度gk(a);
22)更新第k个局部模型的参数
23)令a=a+1;
24)判断a≥A,则执行下一步,否则返回步骤21);
25)获取第k个局部模型的参数更新并将其发送至参数服务器;
S300:将来自于第k个客户端的待检测图像进行图像预处理后,输入经过S222更新参数后的对应的局部模型中进行预测,将待检测图像输入所有类的概率分布,最大概率值对应的类则为待检测图像的预测分类。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国人民武装警察部队警官学院,未经中国人民武装警察部队警官学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110394016.5/1.html,转载请声明来源钻瓜专利网。





