[发明专利]一种基于深度学习的高光谱图像伪装目标检测方法在审
申请号: | 202010135340.0 | 申请日: | 2020-03-02 |
公开(公告)号: | CN111368712A | 公开(公告)日: | 2020-07-03 |
发明(设计)人: | 闫超;张伊慧;付强;王正伟;胡友章;王志勇 | 申请(专利权)人: | 四川九洲电器集团有限责任公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08;G01V8/10 |
代理公司: | 成都九鼎天元知识产权代理有限公司 51214 | 代理人: | 夏琴 |
地址: | 621000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 光谱 图像 伪装 目标 检测 方法 | ||
本发明公开了一种基于深度学习的高光谱图像伪装目标检测方法,包括如下步骤:a.构建高光谱数据集:包括高光谱数据集的采集、预处理、划分和标注的步骤,得到训练数据集和测试数据集;b.构建目标检测模型:使用开源的Mask R‑CNN模型,并针对输入的高光谱数据集对Mask R‑CNN模型进行调整,构建目标检测模型;c.训练模型:使用训练数据集对步骤b构建的目标检测模型进行训练;d.测试模型:使用步骤c训练后的目标检测模型对测试数据集进行检测识别。本发明利用基于深度学习的目标检测模型,同时利用高光谱图像的光谱维和空间维信息,实现了伪装目标的定位分类。
技术领域
本发明涉及伪装目标检测技术领域,尤其是一种基于深度学习的高光谱图像伪装目标检测方法。
背景技术
伪装目标是指采用工程技术措施和利用地形、地物进行隐蔽的目标。按照目标的运动特性,可分为固定伪装目标(电子设备、军用设施等)和活动伪装目标(如人员、车辆、舰艇等)。针对固定伪装目标,传统的目标检测方法首先通过滑动窗口搜索出图像中目标可能出现的位置,然后采用SIFT、HOG等特征对图像中的目标进行特征提取,最后将提取到的目标特征输入SVM等分类器进行分类识别。针对运动伪装目标,可通过Laws能量检测和变化频次检测等方法,检测动态背景下某些具有伪装色的移动目标。然而,以上方法都基于可见光或红外图像视频设计,应用场景受限,无法全天候工作。如果采用多源图像融合检测的方式,则会大大增加检测成本。
高光谱成像技术是指在一定波段范围内获取探测对象光谱辐射信息的技术手段。高光谱图像不仅可获取目标及背景的空间信息,还可同时获取丰富的光谱信息。利用高光谱图像中人造目标与背景光谱信息的差异,可大大拓展目标检测能力,为克服基于可见光、红外图像的伪装目标检测算法面临的应用场景受限等问题提供了解决思路。由于单幅图像的数据量较大,高光谱图像多用于分类任务,在目标检测任务,特别是伪装目标检测任务中的应用较少。此外,基于高光谱图像的目标检测算法多用于实现异常目标检测,无法识别目标的具体类型。而传统的高光谱图像目标检测算法根据先验知识设计,使得高光谱图像中的信息往往未被充分挖掘利用。
近年来,深度学习理论在图像处理、语音识别、自然语言处理等多个领域中都得到了广泛应用。深度学习算法利用多层神经网络模型和大量训练数据,通过多次迭代运算实现对输入数据的深层特征提取与学习。然而,传统基于深度学习的目标检测算法多使用可见光、红外图像作为训练数据。因此,利用高光谱图像丰富的光谱特征信息,并建立基于深度学习的目标检测模型,将为提高伪装目标检测能力与精度提供新的解决方案。
发明内容
本发明所要解决的技术问题是:针对上述存在的问题,提供一种基于深度学习的高光谱图像伪装目标检测方法。
本发明采用的技术方案如下:
一种基于深度学习的高光谱图像伪装目标检测方法,包括如下步骤:
a.构建高光谱数据集:包括高光谱数据集的采集、预处理、划分和标注的步骤,得到训练数据集和测试数据集;
b.构建目标检测模型:使用开源的Mask R-CNN模型,并针对输入的高光谱数据集对Mask R-CNN模型进行调整,构建目标检测模型;
c.训练模型:使用训练数据集对步骤b构建的目标检测模型进行训练;
d.测试模型:使用步骤c训练后的目标检测模型对测试数据集进行检测识别。
进一步地,步骤a包括如下子步骤:
a1.高光谱数据集的采集:使用高光谱相机采集高光谱图像,采集的高光谱图像中包含伪装目标;
a2.高光谱数据集的预处理:
(1)将采集的高光谱图像的维度统一裁剪为h×w×c,其中h、w、c分别为高光谱图像的高、宽、光谱通道数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川九洲电器集团有限责任公司,未经四川九洲电器集团有限责任公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010135340.0/2.html,转载请声明来源钻瓜专利网。