[发明专利]一种行人属性识别方法、装置、存储介质及电子装置在审
| 申请号: | 202210191086.5 | 申请日: | 2022-03-01 |
| 公开(公告)号: | CN114529991A | 公开(公告)日: | 2022-05-24 |
| 发明(设计)人: | 林亦宁;雷蕾 | 申请(专利权)人: | 上海闪马智能科技有限公司;杭州闪马智擎科技有限公司 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V40/10;G06T7/13;G06T7/11;G06K9/62;G06V10/774 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 200210 上海市浦东新区中国(上*** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 行人 属性 识别 方法 装置 存储 介质 电子 | ||
本发明实施例提供了一种行人属性识别方法、装置、存储介质及电子装置。行人属性识别方法包括:获取待识别行人图像,利用预训练的行人属性识别模型对所述待识别行人图像的行人局部属性和行人全局属性进行识别,其中,在预训练过程中,通过计算边缘行人局部子图和基础行人局部子图之间的损失,对所述行人属性识别模型进行预训练,输出所述行人局部属性和所述行人全局属性。在本发明实施例的方案中,由于预训练的行人属性识别模型学习了对目标对象进行局部区域划分的能力和检测目标对象局部区域中目标区域的能力,因此提高了对行人属性的识别精确率。
技术领域
本发明实施例涉及计算机技术领域,具体而言,涉及一种行人属性识别方法、装置、存储介质及电子装置。
背景技术
随着视频监控的广泛普及以及深度学习技术的不断提升,行人属性的识别和分类被广泛的应用于安防领域。
安防领域的长期历史经验表明,摄像头采集的人体图像数据是有效的侦缉线索,基于视频数据提取生物特征,开展个人身份识别,可以极大程度提高治安处置的精确性和实效性。传统的视频分析是通过提取人脸特征开展身份识别,然而现实中的抓拍数据很难拍摄到正面、无遮挡、清晰的人脸,从而给个人身份识别、轨迹追踪带来难度。所以多粒度的多维行人全身特征提取与比对变得非常重要,通过行人多维特征的提取与比对,判定出某一时刻某摄像头中出现的目标行人是否在另一时刻另一摄像头监控视频中出现过,从而快速发现、持续跟踪重点人员。目前业界使用的行人特征提取算法,通常是将视觉特征(特征向量)与语义属性特征(衣着款式与颜色等特征)分开提取的深度网络,占用计算资源较多、实时性差。
目前用于行人属性识别和分类模型训练的方法大多是利用固定标签来进行有监督学习,利用网络输出的全局特征对行人属性的各个类别进行分类。对于全身各个部位都有属性的行人属性分类来说,很难通过全局特征学习到局部的属性特征。这个过程不仅方法不够简洁,并且在判断过程中会造成计算和存储资源的浪费。
并且,行人的属性繁多,只通过简单的网络来分类往往无法学习到分布在行人各个位置的属性特征,通过分割,将各个位置需要的类比划分出来的方法会造成大量的人工标注任务,耗费大量的人力和时间的同时也会造成计算以及存储资源的浪费。
发明内容
有鉴于此,本发明实施例提供一种行人属性识别方法、装置、存储介质及电子装置,以至少部分解决上述问题。
根据本发明实施例的第一方面,提供了一种行人属性识别方法,包括:
获取待识别行人图像;
利用预训练的行人属性识别模型对所述待识别行人图像的行人局部属性和行人全局属性进行识别;其中,在预训练过程中,通过计算边缘行人局部子图和基础行人局部子图之间的损失,对所述行人属性识别模型进行预训练;
输出所述行人局部属性和所述行人全局属性。
在另一些示例中,利用预训练的行人属性识别模型对所述待识别行人图像的行人局部属性和行人全局属性进行识别,包括:
利用所述预训练的行人属性识别模型的骨干网络从所述待识别行人图像中提取所述基础特征图;
基于所述基础特征图,利用所述预训练的行人属性识别模型的局部属性识别网络确定不同区域的行人局部属性;
基于所述基础特征图,利用所述预训练的行人属性识别模型的全局属性识别网络确定所述行人全局属性。
在另一些示例中,基于所述基础特征图,利用所述预训练的行人属性识别模型的全局属性识别网络确定所述行人全局属性后,所述方法还包括:
基于所述行人局部属性,通过监督网络对所述行人全局属性进行监督,以修正所述行人全局属性
根据本发明实施例的第二方面,了提供一种行人属性识别模型训练方法,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海闪马智能科技有限公司;杭州闪马智擎科技有限公司,未经上海闪马智能科技有限公司;杭州闪马智擎科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210191086.5/2.html,转载请声明来源钻瓜专利网。





