[发明专利]一种基于生物个体步态信息的身份识别方法在审
申请号: | 202011124218.X | 申请日: | 2020-10-20 |
公开(公告)号: | CN112257559A | 公开(公告)日: | 2021-01-22 |
发明(设计)人: | 李志华;何恬 | 申请(专利权)人: | 江南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 大连理工大学专利中心 21200 | 代理人: | 刘秋彤;梅洪玉 |
地址: | 214122 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 生物 个体 步态 信息 身份 识别 方法 | ||
本发明公开了一种基于生物个体步态信息的身份识别方法,首先通过智能手机对步态信息进行采集,所采集的步态信息汇总后传输至服务器端,服务器端对步态的动作特征数据进行分类,并对分类结果进行神经网络训练,以此完成身份识别神经网络的训练和基于神经网络的身份识别模型创建,再根据步态神经网络识别模型对新采集的步态信息进行识别,进一步根据模型的识别结果确定步态的生物个体身份信息,进行身份识别。采用本发明的设计,取代了现有的通过监控摄像头进行数据采集的操作,可显著降低身份识别的成本,同时根据神经网络的识别、训练方法,使其能够保持相当的准确度,富于实用。
技术领域
本发明涉及身份识别技术领域,尤其涉及一种基于生物个体步态信息的身份识别方法。
背景技术
步态识别是近年来计算机视觉和生物特征识别领域的一个备受关注的研究方向,它旨在根据人们走路的姿势进行身份识别。与其他生物特征识别技术(如指纹、人脸)相比,步态识别的优势在于非接触性、非侵犯性、易于感知、难于隐藏、难于伪装。
现有技术首先由监控摄像机采集人的步态,通过检测与跟踪获得步态的视频序列。然后经过预处理分析提取该人的步态特征。即对图像序列中的步态运动进行包括运动检测、运动分割、特征提取步态识别前期的关键处理。其次,再经过进一步处理,使其成为与己存贮在数据库中的步态之同样的模式;最后,将新采集的步态特征与步态信息库的步态特征进行比对识别,有匹配的即进行预报和预警。
中国科学院自动化所在2017年公布的步态识别技术,是一种在超高清摄像头下,进行步态识别的方案。该方案依赖CASIA步态数据库中的三个数据集,即Dataset A(小规模库),Dataset B(多视角库)和Dataset C(红外库),识别时无需识别对象主动配合,待识别人员在几十米外带面具背对普通监控摄像头随意走动,步态识别算法也可对其进行身份判断。该技术可广泛应用于安防、公共交通、商业场景。
目前的步态识别需要有监控摄像机进行采集信息,这在一方面增加了成本,而在另一方面,这种监控摄像机的安装角度、地理位置这些环境因素影响着数据信息的精确性。同时,当下布置的监控摄像机的图像清晰度严重依赖摄像机本身的摄影效果,对于远处的人物的动作信息捕捉仍有一定的不足。而在算法处理过程中,技术较为复杂,需要先减除背景因素,然后来提取人的空间轮廓,然后再对定位好的人员进行动作的捕捉。这一系列复杂过程增加了数据提取的误差,因此在实用性上面仍有较大的发展空间。
发明内容
本发明的目的:解决现有的步态识别技术需要借助监控摄像头,占用空间大且成本高,且监控摄像机的安装角度、地理位置这些环境因素影响着数据信息的精确性问题,提供一种取代监控摄像头,并降低身份识别成本的基于生物个体步态信息的身份识别方法。
本发明的技术方案:
一种基于生物个体步态信息的身份识别方法,包括以下步骤:
1)随机建立坐标原点,以人的前进后退方向建立x轴,左右平移方向建立y轴,垂直水平的高低方向为z轴建立完整的坐标系;
2)通过智能手机对不同个体产生的若干个步态信息进行采集,在进行步态信息的采集时,智能手机处于正在使用、依据使用习惯放于手中或置于口袋中;
3)采集的步态信息汇总后传输至服务器端,服务器端对步态的动作行为特征数据进行分类,针对不同类型的行走姿态数据分别进行神经网络训练,以此完成身份识别神经网络的训练和基于神经网络的身份识别模型创建;
4)再根据基于神经网络的身份识别模型对新采集的步态信息进行识别,进一步根据模型的识别结果确定步态的生物个体身份信息,进行身份识别。
进一步的,所述步骤2)中,利用带有加速度传感器的可携带的智能手机对已有标记值的人进行步态信息采集,其采集的步态信息为该人的步态在x轴、y轴、z轴方向的加速度信息;采集的步态信息越多,构建的神经网络越完善,后续身份识别的精确度越高。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江南大学,未经江南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011124218.X/2.html,转载请声明来源钻瓜专利网。