[发明专利]一种基于卷积神经网络的人体姿态识别方法有效
| 申请号: | 201910481323.X | 申请日: | 2019-06-04 |
| 公开(公告)号: | CN110222634B | 公开(公告)日: | 2022-11-01 |
| 发明(设计)人: | 李建;张袁;罗颖;张亦昕 | 申请(专利权)人: | 河海大学常州校区 |
| 主分类号: | G06V40/20 | 分类号: | G06V40/20;G06V10/774;G06V10/82;G06N3/04 |
| 代理公司: | 南京纵横知识产权代理有限公司 32224 | 代理人: | 董建林;杨静 |
| 地址: | 213022 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 卷积 神经网络 人体 姿态 识别 方法 | ||
本发明公开了一种基于卷积神经网络的人体姿态识别方法,首先获取人体姿态数据集,并对其进行视频切成图像帧的预处理;然后搭建卷积神经网络模型,通过在RELU激励函数输入处引入稀疏性,减少激励函数的不必要输入;接着结合稀疏项优化传统目标损失函数,通过迭代更新参数,对网络进行训练,从而获得最优解;最后,根据训练所得的网络模型,对人体姿态进行识别,输出人体姿态类别。本发明的有益效果是:本发明采用的方法在保持较高姿态识别率的同时,可以加快收敛速度,提高网络的泛化能力。
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于卷积神经网络的人体姿态识别方法。
背景技术
近年来,随着信息技术的发展和人工智能技术的普及,人体姿态识别技术开始广泛应用。相关研究人员试图用收集到的人体姿势数据集来探索有效特征和进行分类。传统的姿态识别方法主要有两个步骤: (1)从原始输入图像中提取复杂的人工特征;(2)从获取的特征中训练分类器。
在传统的姿态识别过程中,需要从原始输入图像中提取复杂的人工特征。虽然在识别精度上是有效的,但由于人体的高度复杂性,从骨关键点和深度图像信息中提取的特征尺寸往往相对较高。大部分深度图像需要进行预处理,导致特征提取困难,识别效率低,收敛时间长。传统方法并不是最优方法。
然而,人工神经网络较传统的局部联合建模方法相比,具有非线性建模和自适应能力,可通过训练大量静态图像,挖掘图像深层次信息,来进行姿态识别;神经网络方法对图像中物体的局部特征进行了表征,分类更具鲁棒性。此外,通过引入稀疏正则化,减少激励函数输入不必要的增加,降低模型的复杂度,提高卷积神经网络的泛化能力,从而在保证较高的识别率的同时提高模型的收敛速度。
发明内容
针对现有技术上存在的不足,本发明的目的在于提供一种基于卷积神经网络的人体姿态识别方法,通过设计一种引入稀疏正则化的卷积神经网络模型,在保证较高识别率的同时,提高收敛速度,增强模型的泛化能力。
为了实现上述目的,本发明是通过如下的技术方案来实现:
在训练阶段,构造数据驱动的自学习复杂网络结构模型,将原始人体姿态图像和对应的姿态标签块作为网络的输入和输出,对网络进行有监督导师模式的学习。在验证阶段,给定未知的输入原始图像,进行姿态识别。
一种基于卷积神经网络的人体姿态识别方法,包括以下步骤:S01,获取人体姿态视频数据集,对其进行视频切成图像帧的预处理,并将被切成图像帧的图像数据集划分成训练集与验证集;
S02,构建神经网络模型,在RELU激励函数输入处引入稀疏性,卷积神经网络的输入为所述步骤S01中预处理后的图像,输出为人体姿态类别;对所述卷积神经网络进行训练;
S03,采用所述S02中的神经网络模型对人体姿态进行识别,在公开的人体姿态数据集KTH上进行模型训练和性能的测试;当有未知视频输入时,首先调用所述步骤S01进行预处理,然后利用所述步骤S02 中的神经网络模型进行姿态识别,获取人体姿态类别。
上述的一种基于卷积神经网络的人体姿态识别方法,在所述步骤 S01中,获取人体姿态视频数据集具体包括以下步骤:
S11:获取公开的KTH人体姿态视频数据集;
S12:将视频切割成帧,并保存每帧的图像;
S13:从图像中筛选出出现完整人体并作出标签对应动作的人体行为的图像,删除空白或者未出现完整人体或未作出标签对应动作的人体行为的图像,并对筛选后的图像进行分类标记;所述标签对应姿态包括拳击、挥手、鼓掌、慢跑、跑、慢走;所述分类标记具体为按照拳击、挥手、鼓掌、慢跑、跑、慢走这6类姿态进行标记;
S14:使用高斯混合模型来提取前景,即运动的人体;
S15:对所述步骤S13中筛选后的图像进行归一化处理;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学常州校区,未经河海大学常州校区许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910481323.X/2.html,转载请声明来源钻瓜专利网。





