[发明专利]基于深度置信网络识别变体飞机的高分辨距离像的方法有效
| 申请号: | 201910201582.2 | 申请日: | 2019-03-18 |
| 公开(公告)号: | CN109978164B | 公开(公告)日: | 2022-12-06 |
| 发明(设计)人: | 王鹏辉;宋晓龙;刘宏伟;孟亦然;严俊坤;戴奉周;纠博;陈渤;王英华 | 申请(专利权)人: | 西安电子科技大学 |
| 主分类号: | G06N3/08 | 分类号: | G06N3/08;G06V10/82;G06V10/774;G06V10/764;G01S13/89 |
| 代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 田文英;王品华 |
| 地址: | 710071*** | 国省代码: | 陕西;61 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 基于 深度 置信 网络 识别 变体 飞机 分辨 距离 方法 | ||
1.一种基于深度置信网络识别变体飞机的高分辨距离像的方法,其特征在于,构建并训练深度置信网络,利用训练好的深度置信网络对变体飞机的高分辨距离像与非变体飞机的高分辨距离像之间的共性特征进行学习,该方法步骤包括如下:
(1)构建深度置信网络:
(1a)搭建一个三层深度置信网络,其结构依次为:两层受限玻尔兹曼机和一层反向传播网络;
(1b)设置深度置信网络的参数如下:
将第一层受限玻尔兹曼机的隐含层输入节点设置为128,输出节点设置为200,批尺寸设置为200,迭代次数设置为4,学习率设置为0.002;
将第二层受限玻尔兹曼机的隐含层输入节点设置为200,输出节点设置为250,批尺寸设置为200,迭代次数设置为4,学习率设置为0.002;
将反向传播网络的隐含层输入节点设置为250,输出节点设置为M,M为样本集中飞机的类别总数;
(2)生成高分辨距离像样本集:
(2a)将雷达接收到的每个类别飞机目标发生形变前的高分辨距离像数据与其对应的类别标签,组成该类别飞机的非变体样本集,将雷达接收到的各个类别飞机目标发生形变后的高分辨距离像数据与其对应的类别标签,组成该类别飞机的变体样本集;
(2b)从每个类别飞机的变体样本集中随机选取一半的变体样本集,组成测试样本集;
(2c)将剩余的变体样本集和所有非变体样本集组成训练样本集;
(3)对每个样本的幅度进行归一化处理:
将样本集中的每个高分辨距离像数据除以该高分辨距离像数据的模二范数,得到归一化后的样本集;
(4)训练深度置信网络:
(4a)将归一化后的训练样本集输入到深度置信网络中,逐层无监督的训练深度置信网络中的两层受限玻尔兹曼机,得到预训练后的深度置信网络;
(4b)将预训练后的深度置信网络中受限玻尔兹曼机的输出数据,输入到反向传播网络中,利用交叉熵公式,计算反向传播网络的输出数据与类别标签之间的误差,从深度置信网络的顶层向下传播该误差,微调深度置信网络的参数,直到迭代5次为止,得到训练好的深度置信网络;
(5)目标识别:
将归一化后的测试样本集中的所有样本,同时输入到训练好的深度置信网络中进行识别,得到测试样本集中变体飞机高分辨距离像的分类标签。
2.根据权利要求1所述的基于深度置信网络识别变体飞机的高分辨距离像的方法,其特征在于,步骤(4a)中所述的逐层无监督的训练深度置信网络中的两层受限玻尔兹曼机的具体步骤如下:
第一步,将归一化后的训练样本集输入到第一层受限玻尔兹曼机中,利用对比散度算法对该层受限玻尔兹曼机的神经元状态进行更新,然后对神经元状态进行吉布斯采样,再计算每个神经元状态被激活的概率,最后根据该概率利用随机梯度法对第一层受限玻尔兹曼机的参数进行更新,多次迭代以上过程直到算法收敛,得到第一层受限玻尔兹曼机的输出数据;
第二步,将第一层受限玻尔兹曼机的输出数据输入到第二层受限玻尔兹曼机中,利用对比散度算法对该层受限玻尔兹曼机的神经元状态进行更新,然后对神经元状态进行吉布斯采样,再计算每个神经元状态被激活的概率,最后根据该概率利用随机梯度法对第二层受限玻尔兹曼机的参数进行更新,多次迭代以上过程直到算法收敛,得到第二层受限玻尔兹曼机的输出数据。
3.根据权利要求1所述的基于深度置信网络识别变体飞机的高分辨距离像的方法,其特征在于,步骤(4b)中所述的交叉熵公式如下:
其中,H(p,q)为反向传播网络的输出数据与类别标签之间的交叉熵,p表示类别标签向量,q表示反向传播网络的输出数据,N表示飞机的类别总数,p(x)表示类别标签向量的第x个元素,q(x)表示反向传播网络的输出数据的第x个元素。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910201582.2/1.html,转载请声明来源钻瓜专利网。





