[发明专利]一种基于贝叶斯估计的小波神经网络权值初始化方法在审
申请号: | 201410023610.3 | 申请日: | 2014-01-20 |
公开(公告)号: | CN103761567A | 公开(公告)日: | 2014-04-30 |
发明(设计)人: | 袁赣南;杜雪;赵玉新;陈立娟;李旺;吴迪;常帅;贾韧锋;陈嵩博;韩自发 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06N3/02 | 分类号: | G06N3/02 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及小波神经网络优化技术领域,特别涉及一种采用状态估计研究思想,基于贝叶斯估计的小波神经网络权值初始化方法。本发明包括:建立小波神经网络模型;权值单位化;输入与小波神经元权值优化;输出层神经元权值优化。本发明将小波神经网络权值参数与网络结构、小波类型、输入数据和输出目标值联系起来,同时将状态估计的思想和理论引入到权值参数的初始设置中,强化了小波网络学习训练能力,使小波网络在初始化阶段就具有一定的针对性,从而提高了权值在后续网络学习训练的适应能力。与传统权值初始化方法相比,能够有效地提高学习效率,减小网络输出振荡幅度,加快算法收敛速度,同时能够避免出现不合适权值导致的网络输出发散的情况。 | ||
搜索关键词: | 一种 基于 贝叶斯 估计 神经网络 初始化 方法 | ||
【主权项】:
1.一种基于贝叶斯估计的小波神经网络权值初始化方法,其特征在于:(1)建立小波神经网络模型设置小波神经网络的网络层数和各层神经元的个数,并将各层权值分别设置为[-1,1]区间上均匀分布的随机数;(2)权值单位化小波网络的所有权值按层进行单位化,设WMN为由wmn(m=1...M;n=1...N)组成的第M层至第N层间的权值矩阵,则单位化后的权值矩阵WMN为:W MN = W MN Σ m = 1 M Σ n = 1 N w mn 2 ; ]]> (3)输入与小波神经元权值优化以小波函数为激励函数的神经元为中心,将前后两个网络层中的权值与小波函数类型和神经元个数进行关联,设L、M、N为三个网络层,其神经元个数分别为L、M、N,其中M层的激励函数为小波函数,L、N分别是它的前后两层,WLM、WMN为单位化后三层间的权值矩阵,则将小波函数类型和神经元个数与其关联后为:W LM = K M · W LM L M ]]>W MN = K M · W MN M N ]]> 其中KM为与小波函数有关的常值,A的取值范围为1.6~2.1,若L为输入层,则还需与输入值U(l)(l=1...L)进行关联:W LM = U ( l ) Σ l = 1 L U ( l ) · W LM ]]> (4)输出层神经元权值优化输出层神经元权值以单个输出层神经元为单位进行优化,设输出层R的神经个数为R,与输出层相连的网络层Q的个数为Q,优化时将分别计算每个输出层神经元r与Q个上一层神经元间的权值,其组成的权值向量为WrQ,即整个输出层权值矩阵的维度是Q×R,权值优化过程以单个输出值为计算单位,因此优化过程将进行R次循环,每次计算出Q维的权值向量:a.计算输出层神经元权值的先验概率密度设Wt为输出层神经元r的权值向量,其先验概率密度
采用有限元方法求得,它首先对当前权值进行区域剖分,在单元区域内进行双线性插值构造母单元的形函数Ni,其表达式为:P W t = Σ i = 1 2 n - 1 ( n + 2 ) N i · p i t + 1 ]]> 在初始阶段只有母单元的角结点,令
为相应角结点的形函数,w是神经网络输出层权值的初值,则这些形函数可表示为:N i ~ = 1 2 Q Π u = 1 Q ( 1 + w u ) , i = 1,2 , . . . , 2 Q ]]> 在母单元的基础上添加边结点后的形函数可表示为N i = N i ~ - 1 2 Σ u = 1 Q N u i ≤ 2 Q 1 2 Q - 1 ( 1 - w u 2 ) Π v = 1 , v ≠ u Q ( 1 + w v ) i > 2 Q ]]> 式中i≤2Q表示角结点的形函数,i>2Q表示添加的边结点的形函数,Nu的下角标u代表与第i个角结点相邻的边界点个数,最后通过四阶Runge-Kutta法求解![]()
p t + 1 ( W t ) = p t ( ( W t ) ) + Δ t k 6 ( K 1 + 2 K 2 + 2 K 3 + K 4 ) ]]>K 1 = L ( p ) K 2 = L ( p ) + Δt 2 · K 1 K 3 = L ( p ) + Δt 2 · K 2 K 4 = L ( p ) + Δt 2 · K 3 ]]> 其中L(p)为由描述先验概率密度的Fokker-Planck方程:L ( p ) = 1 2 Σ r , s = 1 Q ∂ 2 ( H ( W t , t ) A ( t ) H T ( W t , t ) ) ∂ W t , r ∂ W t , s - Σ r = 1 Q ∂ ( F ( W t , t ) p ) ∂ W t , r ]]> 上式中F(Wt,t)为权值训练函数,H(Wt,t)为惯性项,令
α为惯性项系数,则F(Wt,t)dt和H(Wt,t)的求解公式为:F ( W t , t ) = - η ▿ E ( W t ( t ) ) ]]>
H(Wt,t)=α(Wt-Wt-1)其中η为学习速率,
为E(Wt)在Wt的梯度函数;b.计算输出层神经元权值的似然概率密度网络输出层权值的似然概率密度为:
其中Dt是当前输入输出数据组成的样本空间Dt=(d1,d2,...,dm),cov(Dt)为t时刻网络样本的协方差矩阵:
c.计算输出层神经元权值的后验概率密度及优化权值根据Bayesian公式可知:P ( W t , t + 1 | D t + 1 ) = P ( W t ) · P ( D t + 1 | W t ) ∫ D P ( D t + 1 | W t ) · P ( W t ) dW t ]]> 根据上式得出的后验概率密度P(Wt,t+1|Dt+1),可通过均值公式求得输出层的优化权值:W t = E ( W t | D t + 1 ) = ∫ D P ( W t , t + 1 | D t + 1 ) dW t ; ]]> d.设定优化循环次数Num,以当前的Wt为权值初始值,求出输出值与目标值的误差,继续循环学习至Num次为止,并从中选出使误差最小的一组权值向量;e.重复步骤a~d计算其余输出层神经元的权值向量,直至完成输出层权值矩阵。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201410023610.3/,转载请声明来源钻瓜专利网。