[发明专利]一种基于卷积神经网络和知识迁移的信号分类识别方法在审
申请号: | 202210083233.7 | 申请日: | 2022-01-25 |
公开(公告)号: | CN114444544A | 公开(公告)日: | 2022-05-06 |
发明(设计)人: | 赵兴海;洪鼎;臧勤 | 申请(专利权)人: | 中国船舶重工集团公司第七二四研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 210003 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 知识 迁移 信号 分类 识别 方法 | ||
本发明公开了一种基于卷积神经网络和知识迁移的信号分类识别方法,首先采用卷积神经网络提取雷达信号特征,并利用迁移学习技术提升卷积神经网络的训练速率和预测精度,其中卷积神经网络模型采用不同大小卷积核相结合,在提升网络深度的同时,对网络提取的特征进行降维。本发明通过增加卷积神经网络的深度,提高了模型提取样本特征的能力,同时避免了由于网络深度增加带来的计算量增大,梯度消失、梯度爆炸等问题;利用迁移学习等方法,加快了神经网络的训练过程,提升了雷达信号分类识别准确率。
技术领域
本发明属于被动探测领域,涉及雷达信号识别和人工智能深度学习算法等技术。
技术背景
传统信号分选算法如扩展关联法,差直方图法,PRI变换法,TOA折叠分选法,都针对一种或几种信号特征进行分析,产生分选结果后多通过与已知数据比对的方式来确定信号源类别,这种方法存在诸多局限:首先,不同雷达的信号参数会存在程度不同的重叠,需要综合分析才能加以区分;其二,同类的信号源设备在硬件条件上有差异,发射的信号参数也会有波动,给数据比对造成困难;随着数据库的逐渐扩大,比对所需的硬件成本、时间成本也相应的提升。传统信号分选算法在样本识别过程中,需要耗费大量的时间和计算量,且在数据集较小的情况下极容易出现过拟合现象。
随着深度学习技术的发展,传统雷达信号侦测识别的方法主要采用雷达信号的阈值进行匹配的方法,但是对于日益渐增的新体制雷达信号,传统的识别方法正确率较低。而目前深度学习技术的发展,为雷达信号的识别技术提供了一种更为有效的识别方法:采用卷积神经网络的深度学习模型,对雷达信号的样本进行特征提取,利用这些特征进行训练,最终利用训练好的模型对雷达信号进行识别。而在深度学习的训练过程中,需要大量预先标注好的数据样本作为训练集。现有的样本标注方法主要针对图片、影像或简单的数据文本,未找到针对雷达信号侦测数据的样本标注方法。雷达信号侦测数据样本提取的困难主要体现在:由于复杂电磁环境影响,侦测手段的限制,获取的原始数据干扰信息较多,有效数据少;数据具有时序关系,参数之间存在关联,参数特征变化复杂多样,且无法简单区分,需要对各种雷达信号数据特征具有极其丰富的分析经验的专业人员进行样本提取。然而采集原始数据的数据量巨大,雷达信号特征几乎被淹没于干扰及噪声之中,标注效率极低,有效标注样本少,严重影响深度学习的效果。
发明内容
针对上述存在的问题,本发明引进卷积神经网络方法,提出了一种基于卷积神经网络和知识迁移的多分类信号识别方法,利用卷积神经网络搭建特征提取器,标签预测器,以及域分类器三个模块,通过引用迁移学习,加速卷积神经网络的训练过程,从而提高样本模型训练效率和预测准确性。卷积神经网络方法属于计算机深度学习领域,其网络结构是采用不同大小卷积核相结合,在提升网络深度的同时,对网络提取的特征进行降维。
本发明是通过以下技术方案实现的:
步骤1:利用设备对雷达信号进行数据采集,将数据转换存储为需要的格式;
步骤2:对采集的原始脉冲描述字数据进行数据清洗:提取维度数据,包括频率、脉宽、幅度、时间、方位角、起始时间;对所述维度数据进行缺失值处理,去除冗余数据;
步骤3:对清洗过的数据进行标准化归一化处理,利用批处理方法优化改变方差大小和均值位置,使得新的分布更切合数据的真实分布,保证模型的非线性表达能力;
步骤4:利用卷积神经网络提取雷达信号特征训练网络模型。
进一步的,所述步骤4还包括:
(1)读取处理好的雷达信号脉冲描述字数据;
(2)建立卷积层提取初步特征;
(3)建立池化层提取主要特征;
(4)将雷达信号仿真数据进行预训练,利用预训练模型的体系结构进行预训练,加速卷积神经网络的训练过程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国船舶重工集团公司第七二四研究所,未经中国船舶重工集团公司第七二四研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210083233.7/2.html,转载请声明来源钻瓜专利网。