[发明专利]基于导向重构与范数约束DBN的SAR目标识别算法有效
申请号: | 201811512718.3 | 申请日: | 2018-12-11 |
公开(公告)号: | CN109507655B | 公开(公告)日: | 2022-09-02 |
发明(设计)人: | 王健;秦春霞;杨珂;任萍 | 申请(专利权)人: | 西北工业大学;西安爱生技术集团公司 |
主分类号: | G01S7/41 | 分类号: | G01S7/41 |
代理公司: | 西安凯多思知识产权代理事务所(普通合伙) 61290 | 代理人: | 刘新琼 |
地址: | 710072 *** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出一种基于导向重构与范数约束DBN的SAR目标识别算法,针对传统基于DBN的SAR目标识别算法网络结构复杂度高、训练次数较多且识别率低等问题,提出利用导向重构算法对训练样本和测试样本做重构预处理,然后裁剪后扩展成一维图像矢量,用加权范数约束的深度置信网络提取低维特征,用Softmax对目标进行分类。实验结果表明,本发明方法可降低图像特征的维度和网络训练的次数,网络的识别性能进一步提高。 | ||
搜索关键词: | 基于 导向 范数 约束 dbn sar 目标 识别 算法 | ||
【主权项】:
1.一种基于导向重构与范数约束DBN的SAR目标识别算法,其特征在于步骤如下:步骤1:基于导向滤波器的两尺度图像重构对原图像In做拉普拉斯滤波得到高频图像Hn:Hn=In*L (1)式中,In是第n个源图像,L是一个3×3拉普拉斯滤波器,Hn取绝对值并作局部平均用来重建特征映射图Sn:Sn=|Hn|*gr,σ (2)式中,g是一个(2r+1)×(2r+1)高斯低通滤波器,σ是高斯低通滤波器的标准差,r和σ均为5;特征映射图对图像高频细节分量的显著性水平提供良好的表征,特征映射图的权重图如下:
将加权导向滤波器应用于每个视觉特征加权映射图Pn中,其相对应的源图像In作为引导图像并通过导向滤波器生成的加权图如下:![]()
r1,ε1,r2和ε2是加权导向滤波器的参数,
和
是低频近似分量和高频细节分量的加权图并对其进行归一化处理;其中r1=45;ε1=0.3;r2=7;ε2=10‑6;总之,利用平滑滤波器对源图像进行两尺度分解得到低频近似分量,高频细节分量则通过源图像减去低频近似分量获得,如下式:![]()
式中:
是源图像的低频分量,
是源图像的高频分量;G是(2r+1)×(2r+1)窗口的平滑滤波器,其中r=15;最后将源图像的低频近似分量和高频细节分量分别通过加权平均进行重构得到各自的重构低频分量
和高频分量
随后利用分量进行重构后得到重构图像,如下式:![]()
将得到的重构后的低频近似分量和高频细节分量进行重构得到重构后的图像,则
步骤2:基于加权范数约束深度置信网络的低维特征提取设X={x1,x2,…,xN}代表训练样本数据,xn(n=1,2,…,N)是其中第n个训练样本数据,其是由原图像In作两尺度分解和重构后的图像
做裁剪并扩展成一维矢量形成的,
是一个列向量,N表示训练样本的总数;受限玻尔兹曼机RBM将输入图像X由可视层V映射到隐层H;在RBM中,任意两个相连的神经元之间的权值Wvh表示其连接强度,v表示可视层的随机变量,h表示隐含层的随机变量,每个神经元自身有一个可视层神经元的偏置系数b和隐含层神经元的偏置系数c来表示其自身权重;RBM的能量函数表示为:
θ={Wvh,b,c}表示该网络的模型系数,
表示第i个可视层神经元与第j个隐含层神经元之间的连接权值,hj表示第j个隐含层的神经元,vi表示第i个可视层的神经元,dx表示可视层神经元的数目,dh表示隐含层神经元的数目;可视层与隐含层的联合概率分布
得到可视层v的独立分布为:
式中dv和dh表示可视层与隐含层神经元的数量;第j个隐含层神经元hj被激活的概率和第i个可视层神经元vi被激活概率分别为:![]()
式中,σ设定为Sigmoid函数,根据概率密度独立性,可得到下式:![]()
RBM根据
计算每个隐含层神经元的开启概率P(hj|x),j=1,2,…,dh,取一个0‑1的随机数μ作为阈值,隐含层每个神经元激活状态如下(可视层同理):
RBM共有五个参数:v是输入向量,h是输出向量,Wvh和b、c,也就是相应的权重和偏置值,是通过学习得到的;对于一个样本数据x,采用对比散度算法CD对其进行训练:(1)将x赋给可视层v1,利用
计算出隐含层中每个神经元被激活的概率P(h1|v1);(2)从计算的概率分布中采取Gibbs抽样抽取一个样本h1~P(h1|v1);(3)用h1重构可视层,即通过隐含层反推可视层,利用
式计算可视层中每个神经元被激活的概率P(v2|h1);(4)同样地,由得到的概率分布中采取Gibbs抽样抽取一个样本v2~P(v2|h1);(5)通过v2再次计算隐含层中每个神经元被激活的概率,得到概率分布P(h2|v2);(6)更新权重:Wvh←Wvh+λ(P(h1|v1)v1‑P(h2|v2)v2)、b←b+λ(v1‑v2)和c←c+λ(h1‑h2)。在这个训练阶段,在可视层会产生一个向量v,通过它将值传递到隐含层;反过来,可视层的输入会被随机的选择,以尝试去重构原始的输入信号;最后,这些新的可视的神经元激活单元将前向传递重构隐含层激活单元,获得h;这些后退和前进的步骤就是Gibbs采样,而隐含层激活单元和可视层输入之间的相关性差别就作为权值更新的主要依据;给定一组N个训练数据{x1,x2,…,xN},则范数约束玻尔兹曼机的广义最优化问题可以描述为:
其中
表示第n个样本xn在可视层和隐含层的联合概率分布,p[hnj|xn]表示当输入层为第n个样本xn时,隐含层第j个神经元被激活的概率:![]()
其中f(p[hnj|xn])是关于p[hnj|xn]的函数,并且p[hnj|xn]是表征样本xn对应的所有隐含层概率密度组成的向量,p[hnj|xn]={p(hn1|xl),p(hn2|xn),…,p(hnF|xn)};其中的右边一项用范数的形式表现为:![]()
![]()
则三种范数正则项表示的梯度可以直接求导得出:![]()
![]()
事实上,范数约束玻尔兹曼机的广义最优化问题右边的正则项,可以表示为n个不同范数的线性叠加:
λi表示不同范数的权重系数,
表示不同的p范数,为了便于算法性能验证,这里p取0.5,1,2;通过多轮训练可以得到最佳网络模型及其系数θ={W,b,c}还有每个训练样本对应的低维特征矢量hn{n=1,2,…,N};步骤3:基于softmax分类器的目标分类输出对于训练集{(y1,L1),…,(yN,LN)},yn(i=1,2,…,N)是训练样本数据xn(n=1,2,…,N)经过多层RBM训练提取的输出特征矢量hn{n=1,2,…,N},数据的标签值是Ln∈{1,2,…,k};其中k是样本的种类,取值3,10;假设输出函数hW(y)形式如下:
其中,W1,W2,…,Wk是模型参数,
是归一化因子,使得输出向量的所有元素之和即总概率为1。定义示性函数1{·},若函数的输入表达式为真,则函数输出值为1,否则为0;即
引入示性函数得到Softmax的代价函数为
上述对数似然函数的第一项是不能用梯度下降法来更新参数的,通过添加一个权重衰减项来使代价函数满足凸函数的性质,得到最优化的解,这里λ=10‑4;Softmax回归中将y分类为类别j的概率为:
用梯度下降法对损失函数进行求导进行优化,得到最优的目标输出函数hW(y);![]()
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西北工业大学;西安爱生技术集团公司,未经西北工业大学;西安爱生技术集团公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811512718.3/,转载请声明来源钻瓜专利网。