[发明专利]一种基于深度特征学习的行人再识别方法有效
申请号: | 201810191123.6 | 申请日: | 2018-03-08 |
公开(公告)号: | CN108345866B | 公开(公告)日: | 2021-08-24 |
发明(设计)人: | 刘爽;郝晓龙;张重 | 申请(专利权)人: | 天津师范大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京中政联科专利代理事务所(普通合伙) 11489 | 代理人: | 陈超 |
地址: | 300387 *** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 特征 学习 行人 识别 方法 | ||
本发明实施例公开了一种基于深度特征学习的行人再识别方法,该方法包括:构建深度神经网络模型;将训练图像集中的训练图像分为N个水平部分,并分配类别标签;训练深度神经网络模型;将测试图像集中的测试图像分为N个水平部分;利用深度神经网络模型提取测试图像的特征;基于待识别图像与测试图像的特征计算两者之间的相似度得分,进而得到待识别图像的行人再识别结果。本发明通过对图像的每个水平部分分配一个类别标签,从而能够充分利用局部特征的优势去训练网络,进而提高了行人再识别匹配的正确率。
技术领域
本发明属于模式识别、人工智能领域,具体涉及一种基于深度特征学习的行人再识别方法。
背景技术
行人再识别(Person Re-identification)是一个在实际应用中有着巨大价值的研究方向,它可以应用到刑事侦察、图像检索等领域。行人再识别旨在从大规模数据库中搜索出特定的行人。
现存行人再识别方法主要集中在两个方面,即特征表示和度量学习。就特征表示而言,很多方法专注于提高特征的判别能力。例如,Zeng等人提出一种有效的行人再识别描述子——混合直方图和协方差描述符(Hybrid Spatiogram and Covariance Descriptor,HSCD)。Matsukawa等人提出利用分层高斯描述符(hierarchical Gaussian descriptor)表示行人图像的局部区域。Variord等人利用数据驱动框架,通过联合学习线性变换和字典来编码像素值。就度量学习而言,Xiong等人提出了核局部费雪判别分类器(Kernel LocalFisher Discriminant Classifier,KLFDA),它利用内核技巧来处理高维度的特征同时最大化费雪标准。为了学习一种低维子空间的判别度量,Liao等人引入了一种有效的方法称为交叉视图二次判别分析(Cross-view Quadratic Discriminant Analysis,XQDA)。
近年来,卷积神经网络已被广泛应用于行人再识别的特征表示中。例如,Yi等人提出将图像分割成三个重叠部分,并训练三个网络来捕获行人图像的不同统计特性。Zhao等人认为不同的身体部位有不同的重要性,因此他们提出根据局部的空间结构信息提取局部特征的方法。Zheng等人提出利用身份嵌入模型(Identification Embedding model,IDE)进行特征提取。虽然以上方法取得了较大的成功,但是他们只考虑了一个方面的因素,即要么只考虑局部特征,要么只考虑判别性较强的网络。因此,不能充分挖掘具有较强判别性的局部特征。
发明内容
本发明的目的是提供一种基于深度特征学习的行人再识别方法,以解决现有技术无法为行人图像的水平部分分配类别标签的技术问题。
为了实现所述目的,本发明提出的一种基于深度特征学习的行人再识别方法包括以下步骤:
步骤S1,构建深度神经网络模型;
步骤S2,获取训练图像集,将所述训练图像集中的每幅训练图像分为N个水平部分,并为每个水平部分分配一个类别标签;
步骤S3,利用带有类别标签的水平部分训练所述深度神经网络模型;
步骤S4,获取测试图像集,将测试图像集中的每幅测试图像分为N个水平部分;
步骤S5,利用训练好的深度神经网络模型提取所述测试图像集中每幅测试图像水平部分的特征,并将每部分特征串联形成相应图像最终的特征;
步骤S6,获取待识别图像及其特征,并基于待识别图像与测试图像的特征计算待识别图像与每幅测试图像之间的相似度得分;
步骤S7,对相似度得分进行排序,得分最高的测试图像被认为与所述待识别图像是相同行人,进而得到待识别图像的行人再识别结果。
可选地,所述步骤S1包括以下步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津师范大学,未经天津师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810191123.6/2.html,转载请声明来源钻瓜专利网。