[发明专利]基于自组织T‑S模糊神经网络的污泥沉降指数软测量方法有效

专利信息
申请号: 201310558054.5 申请日: 2013-11-12
公开(公告)号: CN103606006B 公开(公告)日: 2017-05-17
发明(设计)人: 乔俊飞;许少鹏;韩红桂 申请(专利权)人: 北京工业大学
主分类号: G06N3/02 分类号: G06N3/02;G06N3/08;G01N15/04
代理公司: 北京思海天达知识产权代理有限公司11203 代理人: 刘萍
地址: 100124 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 基于自组织T‑S模糊神经网络的污泥沉降指数软测量方法既属于控制领域,又属于污水处理领域。污泥沉降指数SVI的准确预测是污水处理过程正常运行的保证,本发明首先以规则层的输出量,即规则层的空间激活强度作为判定模糊规则是否增加的依据;其次,在生成新的模糊规则的基础上,以隶属函数层输出量作为判定模糊集是否增加的依据;最后,利用梯度下降算法调整模型的权值参数和高斯函数的中心值和宽度,获得一种自组织T‑S模糊递归神经网络,并基于SOTSFEN建立了SVI的在线软测量模型,实现了SVI的实时检测,为预防污泥膨胀提供了一种有效方法。
搜索关键词: 基于 组织 模糊 神经网络 污泥 沉降 指数 测量方法
【主权项】:
一种SVI软测量方法,其特征在于,包括以下步骤:(1)数据预处理及辅助变量精选;样本集数据用零均值标准化方法进行归一化处理,通过主元分析PCA进行辅助变量的精选,最终确定混合液悬浮物浓度MLSS、酸碱度pH、曝气池水温T、曝气池氨NH4作为模型的输入变量;(2)建立SVI的软测量的递归模糊神经网络模型,输入量为MLSS、pH、T、NH4,模型的输出量为污泥体积指数SVI;递归模糊神经网络拓扑结构:输入层即第一层、隶属函数层即第二层、规则层即第三层、参数层即第四层、输出层即第五层、反馈层;神经网络结构:输入层有4个输入节点,每个输入层节点连接m个隶属函数层节点,规则层有m个节点,m表示模糊规则数,在网络结构训练过程中生成的模糊规则数确定m的值,参数层节点个数、反馈层节点数与规则层的节点数相等,输出层有1个节点;x=[x1,x2,x3,x4]表示神经网络的输入,yd表示神经网络的期望输出;设第k组样本数据为x(k)=[x1(k),x2(k),x3(k),x4(k)];第k组样本数据输入时:输入层第i个节点的输出表示为:oi(1)(k)=xi(k),i=1,2,3,4---(1)]]>其中,表示输入层的第i个节点在输入第k组样本时的输出;隶属函数层的节点总数为:4m,每个输入层的节点均连接m个隶属函数层的节点,隶属函数层的输出为:oij(2)(k)=exp(-(oi(1)(k)-cij(k))2(σij(k))2),j=1,2...m---(2)]]>其中,隶属函数采用高斯函数,cij和σij分别代表输入层第i个节点对应的隶属函数层第j个节点的高斯函数的中心值和宽度,每一个高斯函数均为一个模糊集,在结构调整阶段对高斯函数赋初值;表示输入层的第i个节点对应的隶属函数层的第j个节点在输入第k组样本时的输出;规则层的节点数为m,输入层的每个节点对应的隶属函数层的第j个节点均连接到规则层的第j个节点;在规则层引入反馈连接,在反馈层加入内部变量;反馈层节点包含两种类型的节点:承接节点,对规则层的输出量和权值进行加权求和运算,计算内部变量;反馈节点,采用sigmoid函数作为隶属函数,计算反馈层的输出量;规则层每个节点均连接所有的反馈层承接节点;反馈层的承接节点与反馈节点一一对应,节点数相等,反馈节点与规则层节点一一对应,节点数相等,并随着模糊规则数的变化而变化,始终等于模糊规则数;规则层第j个节点的输出为:hq=Σj=1moj(3)(k-1)ωjq,j=1,2,...,m;q=1,2,...,m---(3)]]>fq=11+exp(-hq)---(4)]]>oj(3)(k)=fqΠi=14oij(2)(k)---(5)]]>其中,ωjq是规则层的第j个节点与反馈层的第q个承接节点的连接权值,初始赋值为0到1间的随机数;表示规则层第j个节点在第k‑1组样本的输出量,hq表示反馈层第q个承接节点的内部变量;fq表示反馈层第q个反馈节点的输出量;规则层的输出即模糊规则的激活强度,其中表示空间激活强度;规则层的节点与参数层的节点是一一对应的,参数层有m个节点,该层的输出表示为:Wj(k)=Σi=14aijxi(k)---(6)]]>oj(4)(k)=oj(3)(k)Wj(k)---(7)]]>其中,aij表示线性参数,初值赋值为0至1的随机数,aj=[a1j,a2j,a3j,a4j];Wj(k)表示参数层第j个节点在输入第k组样本时的线性参数加权求和的值,表示参数层的第j个节点在第k组样本的输出;网络模型为多输入单输出,输出层有1个节点,所有的参数层节点连接到输出节点;网络输出表示为:y(k)=Σj=1moj(4)(k)Σj=1moj(3)(k)---(8)]]>其中,y(k)表示第k组样本的网络输出;(3)模糊神经网络首先通过结构自组织调整确定网络结构;网络的结构自组织调整:x(k)=[x1(k),x2(k),x3(k),x4(k)]表示模型当前输入第k组样本,从第一组样本数据开始输入,到全部数据输入完成,每输入一组样本数据均采用以下步骤判断是否增加新的模糊规则,在增加模糊规则的基础上判断是否增加新的模糊集;①网络模型初始结构中模糊规则数为0,第一组数据输入,模糊规则数变为1,并增加新的模糊集;模糊集的初始化,即高斯函数中心值和宽度值的初始化表示为:c(1)=x(1)=[x1(1),x2(1),x3(1),x4(1)]   (9)σ(1)=[σ11,σ21,σ31,σ41]=[0.5,0.5,0.5,0.5]   (10)其中c(1)表示生成的第一组模糊集的中心值,即隶属函数的中心值;σ(1)表示生成的第一个模糊集的宽度值,即隶属函数的宽度值;②输入数据依次输入,每输入一组数据,均判断是否增加新的模糊规则,判断公式表示为:其中表示规则层第j个节点的空间激活强度;J表示当取最大值时j的值;N表示当前模糊规则数;为预先设定的阈值,取值为0.24;如果满足式(13),则增加一条新的模糊规则,N'=N+1,执行③;如果不满足式(13),重复②,输入下一组数据;③在增加一条新的模糊规则的基础上,判断是否增加新的模糊集,判断公式表示为:I=argmax1<=j<=h(oij(2)(k))---(14)]]>oiI(2)(k)>Ith---(15)]]>其中I表示当取最大值时j的值,h表示当前模型的模糊集数,h=N;Ith为预先设定的阈值,取值为0.92;如果满足式(15),则增加一条新的模糊集,h'=h+1,h'=N';对新增的模糊集赋初值即对隶属函数层的新增的高斯函数中心值和宽度值赋初值;初始化表示为:cN+1=x(k)   (16)c+=argmin1<=p<=N||x(k)-cp||---(17)]]>σi,N+1=r|xi(k)-ci+|,i=1,2,3,4---(18)]]>其中,N表示当前模型已有的模糊规则数,p=1,2,...,N,cN+1表示新增隶属函数的中心值的初始值,r表示重叠系数,取值为0.6;cp表示为当前模型中第p个高斯函数的中心值;c+表示当x(k)与cp空间距离最小时cp的值;σi,N+1表示新增隶属函数的宽度初始值,输入量x(k)与c+的差值的绝对值与重叠系数的乘积;增加新的模糊集,即在每个输入层节点对应的隶属函数层增加一个新的节点,规则层、反馈层、参数层相应的各增加对应节点;如果不满足(15),则不增加新的模糊集h'=h,并且N”=N'‑1,即将新增加的模糊规则删除;④继续调整神经网络的结构,输入数据依次输入,重复②③,所有输入数据输入完成后,神经网络结构调整训练完成;(4)确定了网络模型的结构,然后对网络参数就行调整,用校正后的数据来训练神经网络,其中共150组样本数据,训练样本数据90组,测试样本数据60组,训练步数为1000步,每一步的训练过程中,90组训练样本数据全部输入,每组训练样本数据输入均采用梯度下降算法对网络参数进行调整,其中调整的参数包括:参数层的线性参数a,规则层到反馈层的连接权值ω,隶属函数层高斯函数的中心值c和宽度值σ;定义训练的目标函数即系统误差定义为:E(k)=12(y(k)-yd(k))2---(19)]]>其中y(k)为网络的实际输出量,yd(k)为网络的期望输出量,E(k)表示系统误差;梯度下降算法:采用目标函数对每一层的输出量求偏导数,计算每层输出的误差传播项;通过复合函数求偏导数,计算目标函数对参数值的偏导数,偏导数即为各参数的调整量;参数层的误差传播项即目标函数对参数层输出的偏导数:δj(4)(k)=-∂E(k)∂y(k)∂y(k)∂oj(4)(k)---(20)]]>对线性参数aj的调整量为:∂E(k)∂aj(k)=∂E(k)∂oj(4)(k)∂oj(4)(k)∂aj(k)=-δj(4)(k)oj(3)(k)Σj=1moj(3)(k)---(21)]]>aj(k+1)=aj(k)-η∂E(k)∂aj(k)---(22)]]>规则层第j层误差传播项如下:δj(3)(k)=-∂E(k)∂oj(3)(k)=δj(4)(k)∂oj(4)(k)∂oj(3)(k)---(23)]]>其中,为参数层误差传播项,为参数层输出;递归层到规则层连接权值ωjq的调整规则如下:∂E(k)∂ωjq(k)=∂E(k)∂oj(3)(k)∂oj(3)(k)∂ωjq(k)=-δj(3)(k)∂oj(3)(k)∂ωjq(k)---(24)]]>ωjq(k+1)=ωjq(k)-η∂E∂ωjq(k)---(25)]]>隶属函数层的误差传播项如下:δij(2)(k)=-∂E(k)∂oij(2)(k)=δj(3)(k)∂oj(3)(k)∂oij(2)(k)---(26)]]>隶属函数层高斯函数的中心值cij的调整规则如下:∂E(k)∂cij(k)=∂E(k)∂oij(2)(k)∂oij(2)(k)∂cij(k)=-δij(2)(k)∂oij(2)(k)∂cij(k)---(27)]]>cij(k+1)=cij(k)-η∂E(k)∂cij(k)---(28)]]>其中,为隶属函数层第j个节点的误差传播项,为隶属函数层第j个节点的输出;隶属函数层高斯函数的宽度σij的调整规则如下:∂E(k)∂σij(k)=∂E(k)∂oj(3)(k)∂oj(3)(k)∂σij(k)=-δj(3)(k)∂oj(3)(k)∂σij(k)---(29)]]>σij(k+1)=σij(k)-η∂E(k)∂σij(k)---(30)]]>其中η为参数的学习率,取值为0.15;(5)对测试样本进行预测,将测试样本数据作为训练好的神经网络的输入,神经网络的输出即为SVI的预测结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201310558054.5/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top