[发明专利]一种基于分层神经网络分布式训练的故障预测方法在审
申请号: | 202210314534.6 | 申请日: | 2022-03-29 |
公开(公告)号: | CN114781598A | 公开(公告)日: | 2022-07-22 |
发明(设计)人: | 李骏;沈寒池;田巳睿;马川;韦康;邵雨蒙 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06F11/07 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 薛云燕 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 分层 神经网络 分布式 训练 故障 预测 方法 | ||
1.一种基于分层神经网络分布式训练的故障预测方法,其特征在于,包括以下步骤:
步骤1、将卷积神经网络划分为不同的网络层,每个子层网络输出的向量维度与下一层网络的输入向量维度大小相同,得到一个包含多个子层且每层均可输出模型参数和模型训练精度的模型训练网络;
步骤2、根据设备参数和输入的具有故障标签及非故障标签的数据的大小,计算设备能够训练的最大网络层数;
步骤3、在设备算力资源和存储能力受限的情况下,使用步骤1中经过分层处理的卷积神经网络和在步骤2中得到的训练的最大网络层数,对步骤2中输入数据进行特征提取,输入数据在每一层网络中均训练至收敛,训练过程中得到的模型参数传至下一层网络进行训练,在完成规定训练的最大网络层数后,得到相应的故障检测模型;
步骤4、将与步骤1中相同的卷积神经网络分为三个子层卷积神经网络,将三个子层神经网络分别部署在设备端、边缘端和云端,每层均输出对输入数据是否含有故障的预测值,部署在设备端、边缘端和云端的神经网络之间能够相互通信,得到一个故障预测网络;
步骤5、使用步骤4得到的故障预测网络和步骤3中得到的故障检测模型,对未含有故障标签和非故障标签的数据进行故障预测,先在设备端进行预测,得到输入数据是否含有故障的预测值,根据该值的大小和实际需求,判断是否在边缘端和云端进行预测。
2.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤1中所述将卷积神经网络划分为不同的网络层,具体为:每一层网络包含卷积层、激活函数、池化层和全连接层,每个子层神经网络中首先使用一层卷积层得到输入故障数据的特征输出,激活函数使用线性整流函数,池化层选择最大池化,接入全连接层整合池化层中输出的参数,全连接层的输出传递至softmax层进行分类。
3.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤1中所述每个子层网络输出的向量维度与下一层网络的输入向量维度大小相同,是指后一层的输入卷积层的参数大小与前一层全连接层输出参数大小相同。
4.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤1中所述一个包含多个子层且每层均可输出模型参数和模型训练精度的模型训练网络,其中模型训练精度是指,根据带有故障和非故障标签的数据所训练出的故障检测模型,能够正确区分故障和非故障的数据量与总输入数据量的比值。
5.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤2中所述计算设备能够训练的最大网络层数,是指能够训练的最大网络层数受设备计算能力和内存以及输入数据量的限制,具体公式如下:
其中,为常系数,f为设备中央处理器每秒钟的计算周期,R为设备的内存大小,为输入数据量的大小,k为处理一条数据所需要的中央处理器计算周期的大小。
6.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤3所述输入数据在每一层网络中均需要训练至收敛,是指在每一层中进行多次迭代过程直至损失函数的下降率为0。
7.根据权利要求1所述的基于分层神经网络分布式训练的故障预测方法,其特征在于,步骤4中所述部署在设备端、边缘端和云端的神经网络之间能够相互通信,是指设备端可将输出的模型参数经过无线信道传输至边缘端进行预测,边缘端输出的模型参数经过无线信道传输至云端进行预测,在边缘端和云端得到的对数据是否含有故障的预测值能够通过无线信道传至设备端;其中模型参数是指在故障预测过程中,从卷积神经网络内部得到的参数值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210314534.6/1.html,转载请声明来源钻瓜专利网。