[发明专利]基于GA-BP网络的液压制动系统多源融合故障预示方法有效
申请号: | 201610897862.8 | 申请日: | 2016-10-14 |
公开(公告)号: | CN106482938B | 公开(公告)日: | 2018-08-03 |
发明(设计)人: | 戴瑜兴;朱志亮;谢晓青;张申波;曾国强;张正江;王环 | 申请(专利权)人: | 温州大学 |
主分类号: | G01M13/00 | 分类号: | G01M13/00;G06N3/08 |
代理公司: | 温州名创知识产权代理有限公司 33258 | 代理人: | 陈加利 |
地址: | 325000 浙江省温州市瓯海*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种GA‑BP网络的液压制动系统多源融合故障预示方法,其具体如下:对液压制动系统中的油液进行采样,并随机分成训练集、测试集,对样本进行分析,并进行多源信息融合,得到油液相关的分析数据;利用遗传算法来对神经网络的初始值进行优化;将训练集的分析数据用于GA‑BP网络的建模;利用测试集来训练出来的神经网络进行测试,直到神经网络的性能能够符合要求;最后,利用训练好的GA‑BP神经网络来对液压制动系统状态进行分析,对可能存在的故障进行预示。本发明可以定性和定量地评价被监测液压制动系统的状态,并预测其发展趋势;使得故障诊断过程更加智能化,检测的准确性更高。 | ||
搜索关键词: | 基于 ga bp 网络 液压 制动 系统 融合 故障 预示 方法 | ||
【主权项】:
1.一种基于GA‑BP神经网络的液压制动系统多源融合故障预示方法,其特征在于,包括以下步骤:第一步,对液压制动系统中的油液进行采样,并随机将样本分成两个样本集,分别为训练集和测试集;第二步,对样本进行光谱分析、污染颗粒含量分析、铁含量分析和粘度分析,获得油品的性能数值、磨粒尺寸、形貌、含量和成分信息;第三步,对第二步中各油液分析结果进行多源信息融合,得到油液相关的分析数据,获得全面的油液信息,具体信息包括Fe、Cu、Pb的质量分数,油液粘度,油品性能,油液磨粒尺寸,油液磨粒形貌和油液磨粒成分;第四步,利用遗传算法来对神经网络的初始值进行优化;第五步,将训练集的分析数据用于GA‑BP神经网络的建模;第六步,将测试集用到训练出来的GA‑BP神经网络中进行测试,直到GA‑BP神经网络的性能测试合格;第七步,利用训练好的GA‑BP神经网络来对液压制动系统状态进行分析,对可能存在的故障进行预示;所述第一步中对液压制动系统中的油液进行采样,并随机将样本分成两个样本集的具体过程如下:(1)模拟液压制动系统的不同工况:系统正常工作和异常工作;异常工作包括离合器摩擦片故障、阀卡故障、汇流行星排故障和配流套铸铁密封故障;(2)对制动主缸和液压缸的油液进行取样;(3)让获取的油液样本通过按过滤孔径大小依次排列的硝酸纤维素过滤膜;(4)在载玻片上,将(3)中的硝酸纤维素过滤膜按过滤孔径尺寸从小到大依次排列;并通过二甲基甲酰胺水融解硝酸纤维素过滤膜,从而得到按颗粒尺寸大小梯度依次排列的磨损颗粒样本;(5)重复步骤(1)‑(4)直到完成对液压制动系统的可能存在的状态都模拟完毕;(6)按照随机抽取原则,在获取的所有样本中进行抽样,组成油液样本训练集、测试集,它们分别占总体样本的2/3和1/3;所述第四步中用遗传算法来对神经网络的初始值进行优化,具体过程为:首先用遗传算法对初始值进行快速的全局搜索,再利用BP算法在局部进行最优搜索,获得BP神经网络的初始值的最优值;所述第五步和第六步中的GA‑BP神经网络的训练和测试,具体的步骤如下:(1)利用油液分析数据中的训练数据和GA算法来对神经网络的初始值进行优化;(2)利用BP算法来对神经网络进行训练使得训练得到的神经网络的误差能够满足实际的需求;(3)将油液分析数据中的测试数据用于检测GA‑BP神经网络的性能直到该GA‑BP神经网络的性能满足要求测试合格;所述的第五步中包括GA‑BP神经网络训练,该GA‑BP神经网络训练具体步骤如下:a)初始化:利用遗传算法(GA算法)来对神经网络中的各个节点和节点上的偏置进行初始化,即置所有的加权系数wij(0)、vjk(0)和偏值bj(0)、ck(0)为相对较为优化的数值,从而缩短神经网络的训练时间;GA算法主要包括如下几个步骤:种群初始化,神经网络中的一个权重、偏值和种群的一个个体相对应;利用适应度函数计算每个个体的适应值;利用选择算法来对种群中的个体进行选择,选择较优的个体;利用交叉算法来对选择出的较优的个体进行交叉来得到下一代的个体;利用变异算法对种群中的个体进行变异;重复上述步骤,直到达到设定的迭代次数,此时再选出种群中最优的个体将其作为神经网络中的权值和偏值的初始值;b)提供训练集:给出输入向量集{xori(1),xori(2)….xori(N)}和期望输出向量集{t(1),t(2)….t(N)};同时需要对给出的输入向量进行归一化处理,得到归一化后的输入向量集,归一化公式为:xip=(xori_ip‑min{xori_i1,xori_i2….xori_iN})/(max{xori_i1,xori_i2….xori_iN}‑min{xori_i1,xori_i2….xori_iN}),i={1,2,…n};c)计算神经网络中各节点的实际输出:第p组数据对应的隐含层第j个节点和输出层第k个节点的,计算公式如下:ojp(r)=g(w1j(r)x1p+w2j(r)x2p+w3j(r)x3p+…+wn‑1j(r)xn‑1p+wnj(r)xnp+bj(r)),j={1,2,…q},p={1,2,…N},r表示当前迭代次数;其中ojp(r)表示r代隐含层的第j个节点在第p组数据作用下的输出;ykp(r)=g(v1k(r)o1p(r)+v2k(r)o2p(r)+v3k(r)o3p(r)+…+vq‑1k(r)oq‑1p(r)+vqk(r)oqp(r)+ck(r)),k={1,2,…m},p={1,2,…N},r表示当前迭代次数;其中ykp(r)表示r代输出层第k个节点在第p组数据作用下的输出;d)计算各层的误差:计算隐含层和输入层各节点的误差,误差计算的公式如下:δkp(r)=ykp(r)(1‑ykp(r))(tkp‑ykp(r)),k={1,2,…m},p={1,2,…N};其中δkp(r)表示r代输出层的第k个节点在第p组数据作用下的输出误差;ζjp(r)=(vj1(r)δ1p(r)+vj2(r)δ2p(r)+…+vjm(r)δmp(r))ojp(r)(1‑ojp(r)),j={1,2,…q},p={1,2,…N},r表示当前迭代次数;其中ζjp(r)表示r代隐含层的第j个节点在第p组数据作用下的输出误差;e)调整各层的加权系数及偏值,输出层和输入层的加权系数及其偏值的修正公式如下:vjk(r+1)=vjk(r)+η(δk1(r)oj1(r)+δk2(r)oj2(r)+…+δkN(r)ojN(r));ck(r+1)=ck(r)+η(δk1(r)+δk2(r)+…+δkN(r));其中vjk(r+1)、vjk(r)分别表示r+1代、r代隐含层第j个节点与输出层第k个节点之间的权重系数,ck(r+1)、ck(r)分别表示r+1代、r代输出层第k个节点的偏值;![]()
其中wij(r+1)、wij(r)分别表示r+1代、r代输入层第i个节点与隐含层第j个节点之间的权重系数,bj(r+1)、bj(r)分别表示r+1代、r代隐含层第j个节点的偏值;f)计算误差,即Jp(r)=1/2((t1p‑y1p(r))2+(t2p‑y2p(r))2+…+(tmp‑ymp(r))2),p={1,2,…N};J(r)=J1(r)+J2(r)+…+JN(r);其中Jp(r)为r代第p组数据作用下神经网络的输出误差,J(r)为r代神经网络的整体误差;将神经网络的误差精度设定为ε,ε>0,如果J(r)<ε,说明训练出的神经网络已经能够满足误差要求;反之,返回步骤c)重新计算。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于温州大学,未经温州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201610897862.8/,转载请声明来源钻瓜专利网。