[发明专利]一种行人重识别方法、系统及存储介质在审
申请号: | 202210726677.8 | 申请日: | 2022-06-24 |
公开(公告)号: | CN115116090A | 公开(公告)日: | 2022-09-27 |
发明(设计)人: | 黄文丽;李艳生;杨活龙 | 申请(专利权)人: | 苏州凌图科技有限公司 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/40;G06V10/774;G06V10/762;G06V10/82 |
代理公司: | 北京酷爱智慧知识产权代理有限公司 11514 | 代理人: | 李元军 |
地址: | 215000 江苏省苏州市中国(江苏)自由贸易试验*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 行人 识别 方法 系统 存储 介质 | ||
本发明实施例公开了一种行人重识别方法、系统及存储介质,方法包括:从视频中获取每个行人的全身检测框图;调用特征提取模型对每个行人的全身检测框图进行特征提取,获取每个全身检测框图的特征向量,所述特征向量包括全局特征和局部特征;对特征向量进行聚类,获取属于同一个行人的不同全身检测框图;其中,所述特征提取模型通过训练初始特征提取模型获得;所述特征提取模型包括串联的ResNet50模型和注意力网格网络模型;所述ResNet50模型第4层的输出作为所述注意力网格网络模型的输入,所述ResNet50模型第4层的瓶颈层的步长设置为1。
技术领域
本发明涉及计算机软件技术领域,具体涉及一种行人重识别方法、系统及存储介质。
背景技术
行人重识别是计算机视觉领域中比较重要且具有挑战性的任务之一。行人重识别系统的输入数据主要是行人目标检测系统从多个监控摄像头视频中获取到的行人的全身检测框图;然后,行人重识别系统通过全身检测框图弄清楚该行人出现并重新出现在哪些摄像头下,帮助从所有图像中检索某个行人。与通常从受限环境中获取面部图像的典型面部识别系统相比,行人重识别系统更适用于现实情况。但是,由于不同相机之间的遮挡、行人姿势变化和环境照明变化等因素的影响,目前,行人重识别的精度不是很高。
近年来,已证明深度神经网络可有效地提取图像分类问题的判别特征,因此被广泛用作行人重识别的基本模型。Resnet网络作为标准基线,用来提取全身图像的特征。Resnet网络仅能获得全局特征,例如衣服的整体颜色,具有相似衣服的人的整体特征在特征空间中彼此接近,不足以区分不同的人。通常,我们不仅通过一般的服装颜色来识别行人,还通过局部特征来识别行人,而全局特征表示无法获得这些细节。所以,行人重识别更准确的方法应该是基于局部的特征表示,对行人的身体部位进行定位,提取相关局部特征。但是相关论文中对局部区域定位的定义相当随意,并且因此还可能会逐个数据集和/或逐个类别地更改数据集,基于此,本申请的技术方案在全局特征的基础上组合全局特征和局部特征来提高模型在全局特征水平的准确率,通过局部特征组合和注意力机制定位局部区域,得到更好的特征,提高模型的准确性。
发明内容
针对现有技术中的技术缺陷,本发明实施例的目的在于提供一种行人重识别方法、系统及存储介质,以解决背景技术中所提出的技术问题。
为实现上述目的,第一方面,本发明实施例提供了一种行人重识别方法,包括:
从视频中获取每个行人的全身检测框图;
调用特征提取模型对每个行人的全身检测框图进行特征提取,获取每个全身检测框图的特征向量,所述特征向量包括全局特征和局部特征;
对特征向量进行聚类,获取属于同一个行人的不同全身检测框图;
其中,所述特征提取模型通过训练初始特征提取模型获得;
所述特征提取模型包括串联的ResNet50模型和注意力网格网络模型;所述ResNet50模型第4层的输出作为所述注意力网格网络模型的输入,所述ResNet50模型第4层的瓶颈层的步长设置为1。
可选的,训练所述初始特征提取模型获得所述特征提取模型,包括:
获取训练数据集;
利用所述训练数据集对所述初始特征提取模型进行训练,获得所述特征提取模型。
可选的,所述利用所述训练数据集对所述初始特征提取模型进行训练,获取所述特征提取模型,包括:
S1:将所述训练数据集输入所述初始特征提取模型,对各身体检测框图进行特征提取,得到特征标签;
S2:计算特征标签和真实标签之间的误差;
S3:根据误差反向传播更新所述初始特征提取模型的参数;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州凌图科技有限公司,未经苏州凌图科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210726677.8/2.html,转载请声明来源钻瓜专利网。