[发明专利]一种基于细粒度运动模式选择的步态识别方法及系统在审
申请号: | 202211664772.6 | 申请日: | 2022-12-23 |
公开(公告)号: | CN116052268A | 公开(公告)日: | 2023-05-02 |
发明(设计)人: | 付莹;马康;郑德智;张军 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V20/40;G06V10/44;G06V10/82;G06V10/778;G06N3/0464;G06N3/08 |
代理公司: | 北京正阳理工知识产权代理事务所(普通合伙) 11639 | 代理人: | 王松 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 细粒度 运动 模式 选择 步态 识别 方法 系统 | ||
本发明涉及一种基于细粒度运动模式选择的步态识别方法及系统,属于计算机视觉及生物识别技术领域。本发明首次提出了一个结构简单且有效的细粒度动作模式选择的步态识别模型,能够从大规模的特征点中筛选出多种外部条件变化下鲁棒的点位特征,从而有效实现高精度的步态识别。本发明有效解决了现有方法中步态识别准确率较低的问题,以及由于缺乏细粒度特征提取和运动模式选择而造成的步态特征表达不充分的问题,为现实场景下的布控提供了一个网络结构较为简单有效的方案。
技术领域
本发明涉及一种基于细粒度运动模式选择的步态识别方法及系统,用于对步态剪影序列进行判别身份,属于计算机视觉及生物识别技术领域。
背景技术
步态识别是生物特征识别领域中的一项重要技术。它能够从多个不同角度的摄像机中获得同一个被试者走路的视频,并识别行人的身份信息。
与人脸识别、指纹识别和虹膜识别相比,步态识别具有远距离、多视角、非配合和抗伪装等特点。通常步态识别的有效距离为五十米,在社会安全、视频监控、犯罪调查等场景具有巨大的应用价值。
从运动学角度看,人体可以被视为是一种由多个关节构成的多链接刚体系统。人体在行走过程中,各个关节角度和人体重心始终处于动态变化,需要上百个运动学参数才能完整描述人体空间运动的姿态。从运动力学的角度看,步态的运动过程十分复杂,包括人体各个肌肉和中枢之间的协调控制。对于不同的人而言,由于生长环境和个体基因不同,导致肌肉分布、骨骼结构和运动神经存在个体间的差异。因此,不同场景中同一个人的步态特征相对稳定,而不同人体之间的步态特征存在差异。
目前,基于步态识别的方法主要包括两类:一是基于模型的步态识别方法,二是基于外表的步态识别方法。
1.基于模型的步态识别方法。此类方法试图将人体姿势结构拟合到图像中并提取运动学特征。例如,基于骨架的步态识别方法,通常使用固定数目的关键点作为特征提取的依据。
然而,目前没有任何证据表明这些关键点的选择是最优的。
2.基于外表的步态识别方法。包括基于模板的步态识别方法、基于集合的步态识别方法和基于序列的步态识别方法。
(1)基于模板的步态识别方法。首先通过将序列压缩的方法获得步态先验信息,例如:步态能量图和计时步态图像等,然后提取步态的特征。
然而,此类方法的输入数据损失了大量的时序信息,识别准确率也不高。
(2)基于集合的步态识别方法。设步态序列本身包含了位置信息,采用随机采样的方法从序列中随机采取固定数目的帧作为输入,然后利用2D卷积分别提取每张图片的特征,最后采取最大值池化的方法直接融合序列的特征。
然而,此类方法将剪影序列作为一个集合并通过最大值池化的方式整合特征,这种方法极大的弱化了时序特征的提取。
(3)基于序列的步态识别方法。首先选择固定数目的连续的帧作为输入,然后采取3D卷积提取序列中的时空特征。
然而,此类方法忽略了对细粒度特征的有效处理和选择,丢失了大量的信息,同时引入了复杂的模块。
因此,为了能够获得更高的步态识别准确率、较为简单的神经网络,或为了满足现实条件下对普通摄像头的布控需求,迫切需要一种识别准确率较高、网络结构简单的步态识别神经网络方法及系统。
发明内容
本发明的目的是针对现有技术存在的缺陷和不足,为了解决现有方法由于忽略了对步态识别这一细粒度分类问题的认识,以及由于直接对时间维度进行最大值池化而造成的时序信息缺失等技术问题,创造性地提出一种基于细粒度运动模式选择的步态识别方法及系统。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211664772.6/2.html,转载请声明来源钻瓜专利网。