[发明专利]基于自适应局部序数保持解析字典学习的图像分类方法在审
申请号: | 202211256342.0 | 申请日: | 2022-10-13 |
公开(公告)号: | CN115601591A | 公开(公告)日: | 2023-01-13 |
发明(设计)人: | 董静;吴凯;梅雪;刘厂 | 申请(专利权)人: | 南京工业大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/77;G06V10/774 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 211816 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 自适应 局部 序数 保持 解析 字典 学习 图像 分类 方法 | ||
本发明公开了基于自适应局部序数保持解析字典学习的图像分类方法,属于计算机视觉技术领域,该方法包括:对数据集中的图像进行特征提取,将其划分为训练集和测试集,并基于训练集采用支持自适应局部序数保持的解析字典学习模型同时学习解析字典和分类器,然后基于学习所得的解析字典计算测试集的编码系数,最后通过分类器与测试集的编码系数取得测试集的类别标签。本发明方法在判别式卷积解析字典学习模型基础上引入一个自适应序数局部保持项,通过在学习过程中同时保持字典原子之间的邻域相关性和邻域内原子的距离排序信息,优化解析字典学习模型,以增强字典的判别性,提升模型在人脸识别、物体识别和场景识别等一般场景下的图像分类准确率。
技术领域
本发明属于计算机视觉领域,具体涉及基于自适应局部序数保持解析字典学习的图像分类方法。
背景技术
随着计算机技术的快速发展,计算机视觉领域也随之发展迅速,图像分类作为计算机视觉的重要问题之一引起了广大学者的研究。稀疏表示和字典学习作为提取高维数据特征的一种重要方法,已被广泛应用于图像处理和机器学习等各个领域,如图像去噪、图像超分辨率重建和图像分类等。
在字典学习应用于图像分类的过程中,判别式解析字典学习和判别式综合字典学习一经提出并被证明有良好效果之后,便被一直沿用成为经典的基于字典学习的分类模型。之后如何提高模型的分类效果一直深受学界关注,许多研究人员在此基础上提出了诸多模型并取得了不错的分类的效果,如Ramirez等人通过在判别式综合字典学习模型中加入非相干字典提升项进而提高字典的判别力;一种判别式字典对模型(DPL)通过将判别式综合字典学习模型和判别式解析字典学习模型进行融合,该模型同时兼顾了两类经典模型的优点,从而提高模型的分类效果;Tang等人提出一种判别式卷积解析字典学习模型(DCADL),借鉴了卷积神经网络的思想,同时将分类器与字典联合学习,在保证分类性能的前提下有效提升了算法效率。然而,该模型并未考虑字典的结构信息对分类效果的影响,在一定程度上影响了分类性能。
为了解决上述问题,本发明提出了基于自适应局部序数保持解析字典学习的图像分类方法,通过在DCADL模型中加入自适应局部序数保持项,在字典学习的同时考虑字典的结构信息,并将分类器与字典进行联合学习,从而在保证模型学习效率的同时进一步提高分类性能。
发明内容
本发明所要解决的技术问题是:克服现有技术的不足,提出基于自适应局部序数保持解析字典学习的图像分类方法,通过考虑字典结构信息提升字典的判别性,以获得更好的图像分类性能。
本发明所采用的技术方案是:基于自适应局部序数保持解析字典学习的图像分类方法,包括:
步骤1、对数据集中的图像进行特征提取,并将其划分为训练集X和测试集Xtest;
步骤2、建立支持自适应局部序数保持的解析字典学习模型;
步骤3、将训练集X输入到步骤2所建立模型中,并求解相应的优化问题,得到适用于对应数据集的解析字典Ω和分类器W;
步骤4、采用步骤3得到的解析字典Ω对测试集Xtest进行编码,得到测试集的编码系数
步骤5、将步骤4得到的编码系数进行整形,并输入到步骤3得到的分类器W,获得测试集的分类结果。
上述步骤1所述的对数据集图像进行特征提取,并将其划分为训练集X和测试集Xtest,包括:
①采用主成分分析法,在尽量保证信息量不丢失的情况下,对数据集原始图像数据进行降维,从而将高维图像数据线性映射到低维空间,并将获得的低维数据进行归一化处理,
②将数据集的每一类数据划分为训练集X和测试集Xtest。
上述步骤2所述的建立支持自适应局部序数保持的解析字典学习模型,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京工业大学,未经南京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211256342.0/2.html,转载请声明来源钻瓜专利网。