[发明专利]基于姿态估计的人体行为识别方法在审
申请号: | 201810079476.7 | 申请日: | 2018-01-26 |
公开(公告)号: | CN108446583A | 公开(公告)日: | 2018-08-24 |
发明(设计)人: | 姬红兵;薛飞;张文博;朱志刚;曹奕 | 申请(专利权)人: | 西安电子科技大学昆山创新研究院;西安电子科技大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
代理公司: | 陕西电子工业专利中心 61205 | 代理人: | 王品华;朱红星 |
地址: | 215347 江苏省*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 人体行为识别 人体关节 姿态估计 视频特征 点位置 训练集 智能视频监控 矩阵 距离变化量 训练分类器 矩阵生成 人机交互 人体行为 视频检索 数据集中 相邻两帧 变化量 测试集 点距离 分类器 可用 分段 测试 分类 | ||
本发明公开了一种基于姿态估计的人体行为识别方法,主要解决现有技术在视频人体行为中处理速度过慢的问题。其实现步骤是:1.利用Open‑pose方法对视频中人体进行姿态估计,提取视频中每帧人体关节点位置坐标;2.根据每帧人体关节点位置坐标,计算相邻两帧人体关节点距离变化量矩阵;3.将视频进行分段,利用每段视频距离变化量矩阵生成视频特征;4.将数据集中视频分为训练集和测试集两部分,用训练集的视频特征训练分类器,利用训练好的分类器对测试集中的视频进行分类。本发明提高了视频中人体行为识别的速度,可用于智能视频监控、人机交互、视频检索。
技术领域
本发明属于图像处理技术领域,特别涉及一种视频人体行为识别方法,可用于智能视频监控、人机交互、视频检索。
背景技术
随着计算机学科与人工智能的发展和应用,视频分析技术迅速兴起并得到了广泛关注。视频分析中的一个核心就是人体行为识别,行为识别的准确性和快速性将直接影响视频分析系统后续工作的结果。因此,如何提高视频中人体行为识别的准确性和快速性,已成为视频分析系统研究中的重点问题。
目前,典型的视频人体行为识别方法主要有:时空兴趣点、密集轨迹等。其中:
时空兴趣点,是通过检测视频中的角点、提取角点的特征进行人体行为识别,但是一部分角点是由背景噪声产生,不但会影响最后的结果,还会降低识别的运行速度。
密集轨迹,是先对视频每一帧进行多个尺度上的密集采样,然后对采样的点进行跟踪得到轨迹,再提取轨迹的特征进行行为识别。但是该方法的计算复杂度高,并且产生的特征维度高,会占用大量的内存,很难做到实时识别。
发明内容
本发明的目的在于针对上述已有技术中实时性差的问题,提出一种基于姿态估计的人体行为识别方法,以提高人体行为识别的速度。
本发明的技术思路是:通过估计视频中人体的姿态,得到每一帧人体关节点的位置,利用人体关节点的位置变化量分析人体的动作,从而快速地进行人体行为识别。
根据上述思路,本发明的实现方案包括如下:
(1)提取视频中每帧人体关节点位置坐标:
(1a)利用Open-pose方法对视频中每帧人体进行姿态估计,得到人体脖子、胸部、头部、右肩、左肩、右臀部、左臀部、右手肘、左手肘、右膝盖、左膝盖、右手腕、左手腕、右脚踝和左脚踝这15个关节点的位置坐标,其中第k个关节点的坐标表示为Lk=(xk,yk),k从1到15;
(1b)对每个关节点的位置坐标进行归一化;
(1c)用归一化之后的15个关节点位置坐标构成坐标矩阵P,P=[(x1,y1),(x2,y2),...,(xk,yk),...,(x15,y15)],其中(xk,yk)表示第k个关节点归一化之后的坐标;
(2)计算相邻两帧人体关节点距离变化量矩阵:
(2a)根据相邻两帧的坐标矩阵Pn和Pn-1,计算相邻两帧关节点位置坐标变化量矩阵
(2b)根据关节点位置坐标变化量矩阵计算关节点距离变化量矩阵D;
(3)生成视频特征:
(3a)按照视频的时间长度将视频平均分成4段,将每一段视频中相邻两帧产生的距离变化量矩阵D相加,得到各段累计距离变化量矩阵Di,i从1到4;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学昆山创新研究院;西安电子科技大学,未经西安电子科技大学昆山创新研究院;西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810079476.7/2.html,转载请声明来源钻瓜专利网。