[发明专利]基于注意深度双向循环神经网络的HRRP目标识别方法有效

专利信息
申请号: 201810998889.5 申请日: 2018-08-29
公开(公告)号: CN109214452B 公开(公告)日: 2020-06-23
发明(设计)人: 吕帅帅;潘勉;李训根;于彦贞;刘爱林;李子璇;张战 申请(专利权)人: 杭州电子科技大学
主分类号: G06K9/62 分类号: G06K9/62
代理公司: 杭州浙科专利事务所(普通合伙) 33213 代理人: 吴秉中
地址: 310018 浙*** 国省代码: 浙江;33
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 注意 深度 双向 循环 神经网络 hrrp 目标 识别 方法
【权利要求书】:

1.一种基于注意深度双向循环神经网络的HRRP目标识别方法,包括如下步骤:包括以下步骤;

S1:获取Q个雷达采集到的HRRP数据集,并依据目标的种类进行合并,训练样本和测试样本分别在每种种类数据的不同数据段里选择,选取过程中保证所选取训练集的数据与雷达所成姿态涵盖测试数据集与雷达所成的姿态;

S2:对经过S1所挑选数据集中的每一个样本采用补偿对齐法进行对齐,得到对齐后的数据;

S3:对S2处理后的每一个样本进行能量归一化处理,得到归一化后的数据;

S4:对经过S3处理后的雷达训练目标数据,提取时域特征作为识别特征,并用于训练;

S5:循环切分经过处理后的数据集,设定切分的向量长度为p,使p为2的幂级数;之后对数据集内的每一个HRRP样本,将其移位p-1次并进行连接;

S6:提取样本的嵌入表示特征,将每一个经过S5处理后的HRRP样本按10级进行非均匀量化;设定窗口值,初始化一个空矩阵,并依次统计量化向量在窗长度下共现的次数,对矩阵中的对应元素赋值;最后对矩阵中的每个元素限制其动态范围,根据共现矩阵得到HRRP训练样本的结构嵌入特征;

S7:构建深度神经网络模型,并利用HRRP训练样本的结构嵌入特征训练该模型;该深度神经网络模型由三部分组成:首先是一个全连接网络层,用于嵌入特征降维,然后将降维后的数据输入至基于注意LSTM的深度双向循环神经网络,LSTM为长短时记忆网络,最后采用softmax层对双向循环神经网络的输出进行识别;

S8:对由S1采集到的测试数据进行训练阶段的步骤S2、S3、S4、S5和S6操作;

S9:将经过S8所提取的嵌入表示特征送入S7构建的深度神经网络得到测试样本所对应的目标;

所述步骤S7具体如下:

S7.1:构建一层全连接神经网络,设置第一层输入层神经元数目为10000,第二层输入层神经元数目为300,将经过步骤S6.5处理后的A按列切分依次送入全连接神经网络,得到输出:

Z=[z1=f(Wija1+b),z2=f(Wija2+b),…,z256=f(Wija256+b)],

其中zi代表第i个输出,大小为300×1维,Wij代表输入层第i个神经元到输出层第j个神经元的权重,b代表输入层神经元到输出层神经元的偏置,所有的神经元共享偏置;

S7.2:构建基于LSTM的双向循环神经网络,具体操作步骤如下:

S7.2.1:双向循环神经网络为两个单向其方向相反的循环神经网络的结合,即前向网络和反向网络的结合,在每一个时刻t,网络的输出由这两个方向相反的单向循环神经网络共同决定,设置n_in=256,n_step=300,n_nums=128,n_nums1=128,n_cls=5,其中n_in=256代表基于LSTM的双向循环神经网络的输入层神经元数目,n_step=300代表每一个神经元的输入向量,为一个300×1的向量,n_nums=128和n_nums1=128代表两个LSTM隐层神经元的数目,n_cls=5代表输出层神经元数目,即代表所挑选的目标类别数目为5类;

S7.2.2:对双向循环神经网络的权重和偏置进行初始化,输入层和隐层之间的权重记为W1,其维度为shape1=(n_in,n_nums1),第一个隐层和第二个隐层之间的权重记为W2,其维度为shape2=(n_nums1,n_nums2),第二个隐层和输出层之间的权重记为W3,其维度为shape3=(n_nums,n_cls),权重初始化采用服从均值为0,方差为1的高斯分布,输入层和第一个隐层之间的偏置记为bias1,其维度为shape4=(n_nums1),第一个隐层和第二个隐层之间的偏置记为bias2,其维度为shape5=(n_nums2),第二个隐层和输出层之间的偏置记为bias3,其维度为shape6=(n_cls),均初始化为常量1,双向的初始状态皆记为state=0,前向循环神经网络的所有时刻共享前向网络的权重、偏置和初始状态,反向相同;

S7.2.3:由S7.1可知,全连接神经网络的输出Z作为循环神经网络的输入,则循环神经网络的输出为X1_out=tanh(Z×W1+bias1),同时作为隐层的输入,

其中tanh(·)是激活函数,根据tensorflow中的计算公式lstm_fw_cell=tf.contrib.rnn.BasicLSTMCell(n_nums,forget_bias=1.0)lstm_bw_cell=tf.contrib.rnn.BasicLSTMCell(n_nums,forget_bias=1.0)lstm_fw_cell1=tf.contrib.rnn.BasicLSTMCell(n_nums1,forget_bias1=1.0)lstm_bw_cell1=tf.contrib.rnn.BasicLSTMCell(n_nums1,forget_bias1=1.0)output,output_state_fw,output_state_bw=tf.contrib.rnn.static_bidirectional_rnn(lstm_fw_cell1,lstm_bw_cell1,X1_out)

其中,lstm_fw_cell和lstm_fw_cell1代表前向的循环神经网络,lstm_bw_cell和lstm_bw_cell1代表反向循环神经网络,forget_bias=1.0和forget_bias1=1.0代表LSTM不会忘记任何信息,output,output_state_fw,output_state_bw分别代表X1_out经过两个隐层后的输出,前向循环神经网络和反向循环神经网络被更新后的状态;

S7.2.4:注意力模型权重系数的求取,求取output中每一个神经元输出所对应的能量,根据其能量大小设计softmax进行归一化来求解权重系数,计算公式如下:

output_ei=UTtanh(W4×outputi)

其中,W4和U为待训练的系数,其维度为L×m,L为神经元的数量,m为隐层的维度,U的维度为1×L;

S7.2.5:根据S7.2.4得到权重系数构建输出层的输入X2_out为X3=tanh(X2_out×W2+bias2)为双向循环神经网络每一个时刻256个输出的组合,256个输出中每一个序列的维度是n_cls,X3={X31,X32,X33,X34,X35};

S7.3:构建输出softmax层,将X3作为softmax分类器的输入特征,进行分类,由S1可知雷达HRRP样本来自5个不同的目标,训练得到softmax回归模型的参数集θ之后,雷达HRRP样本的特征X3对应于第i个目标的概率值p(i|X3)定义为:

其中,i表示目标的标号,i=1,2,…,5,5为总目标数,θi表示对应于目标i的参数,表示归一化向量,使雷达HRRP样本对应于所有目标模型的概率和为1。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201810998889.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top