[发明专利]一种基于紧致性特征学习的空间卫星目标识别方法在审
申请号: | 202210006296.2 | 申请日: | 2022-01-05 |
公开(公告)号: | CN114373119A | 公开(公告)日: | 2022-04-19 |
发明(设计)人: | 陈欣欣;楼小弟;泮恒拓 | 申请(专利权)人: | 浙江大学湖州研究院 |
主分类号: | G06V20/00 | 分类号: | G06V20/00;G06V10/46;G06V10/774;G06V10/82;G06K9/62;G06N3/04 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 林松海 |
地址: | 313002 浙江省湖*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 紧致性 特征 学习 空间 卫星 目标 识别 方法 | ||
本发明公开了一种基于紧致性特征学习的空间卫星目标识别方法,涉及空间目标识别技术领域,提出一种将施加紧致性约束的卷积自编码器(Compact Convolutional Auto‑Encoder,CCAE)用于小样本下的空间卫星目标图像特征学习方法。针对现有深度学习方法在小样本空间卫星目标图像上特征学习能力不足的问题,通过对传统卷积自编码器损失函数施加紧致性约束,可同时最小化重建误差和类内样本误差,使所学特征空间中类内样本的距离缩小,同时扩大类间样本距离,进而提高特征判别性。因而,本发明提出了一种基于紧致性特征学习的空间卫星目标识别方法,较好地克服传统有监督模型在小样本下训练效率低下,易发生过拟合的缺点,从而有效提升了目标识别率。
技术领域
本发明涉及属于空间目标识别技术领域,特别是一种基于紧致性特征学习的空间卫星目标识别方法。
背景技术
在近些年来高速增长的海量数据背景下,深度学习技术因其强大的特征学习能力为表示学习研究指明了新的发展方向。通过对模型进行深层次构建,深度学习可逐层地从样本中学习特征,实现对数据的高层次抽象表达,进而更好地揭示样本数据丰富的内在信息。同时,深度学习可将表示学习与分类识别纳入到整体的模型框架,形成一种端到端的训练模式,有效提升了相关任务的完成效率。其中,以卷积神经网络(Convolutional NeuralNetwork,CNN)为代表的深度学习技术在图像分类与识别领域体现出了传统浅层学习方法无法比拟的优势。
由于CNN中通常包含了大量模型参数,因而实现其有效训练需要以大量的训练数据作为支撑。然而在实际情况中,这一训练条件对于空间目标领域来说难以实现。若直接在小样本空间卫星目标图像下训练CNN,则会引起过拟合问题,导致CNN的特征学习优势无法充分发挥。针对这一问题,本发明聚焦于如何构建更适用于实际空间卫星目标分类与识别任务的深度学习模型。
发明内容
为了克服现有技术的不足,本发明的目的是提供一种基于紧致性特征学习的空间卫星目标识别方法,本发明除了对传统卷积自编码器中涉及到的重建损失进行最小化以外,所提模型还在学习过程中显性地对类内样本施加紧致性约束,使学得特征具有更好的判别性。进一步地,本发明利用预训练完毕的紧致性卷积自编码模型对相应结构的CNN参数进行初始化,实现了端到端识别模型的构造。
本发明为解决上述技术问题采用以下技术方案:
一种基于紧致性特征学习的空间卫星目标识别方法,包括以下步骤:
1)构造错位配对样本作为输入;
2)构建具有双通道共享参数结构的CCAE模型,包括编码器部分和解码器部分;对于来自同一类别的空间卫星目标图像样本对和,编码器部分别在对应通道对样本进行交替的卷积和池化操作并产生对应的特征图,然后利用所获得特征图进行紧致性损失计算;同时,由所产生的编码器输出继续被输入到解码器以获得对应的重建图像并计算重建损失;
对于输入图像,其二维局部空间特征的提取过程如下:
(4)
式(4)中,表示二维卷积操作,和分别为编码器中的第个卷积滤波器和对应偏置,代表非线性激活函数,表示相应的编码器输出;
在完成特征编码之后,引入最大池化层来捕捉特征图中的局部显著性特征,在通过反池化层完成相应的上采样操作后,特征的解码过程计算如下:
(5)
式(5)中,和分别表示解码器中的反卷积滤波器和偏置,为重建输出图像;
3)将无监督训练应用于CCAE的训练以实现对输入样本的特征学习,其目标在于最小化如下损失函数:
(6)
式(6)中,表示编码器和解码器中的参数集合,为输入图像的个数;
设和分别表示和的编码输出特征图,则类内样本的紧致性损失定义如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学湖州研究院,未经浙江大学湖州研究院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210006296.2/2.html,转载请声明来源钻瓜专利网。