[发明专利]一种基于人工智能获取RGB视频中3D肢体动作的方法在审
申请号: | 202010789617.1 | 申请日: | 2020-08-07 |
公开(公告)号: | CN112101102A | 公开(公告)日: | 2020-12-18 |
发明(设计)人: | 方浩树;何书廉;刘烨斌;陆晓飞;徐阳 | 申请(专利权)人: | 亿匀智行(深圳)科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T13/40 |
代理公司: | 东莞市卓越超群知识产权代理事务所(特殊普通合伙) 44462 | 代理人: | 陈美霞 |
地址: | 518000 广东省深圳市南山区粤海街道*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 人工智能 获取 rgb 视频 肢体 动作 方法 | ||
本发明涉及人体动作识别获取技术领域,尤指一种基于人工智能获取RGB视频中3D肢体动作的方法。本发明基于人工智能获取RGB视频中3D肢体动作的方法通过服务器端接收包含人体的RGB视信息,进而从视频中计算出人体的位置,对人体信息进行数据标准化,再从视频中人体的位置及人体关键点的位置计算出特征数据,然后将特征数据输入到本地存储的深度学习模型,该深度学习模型利用本发明所收集的大量包含人体的RGB视频数据训练而成,深度学习模型输出肢体关键点相对应的三维数值,最后通过自动优化肢体关键点相对应的三维数值为最终结果,从而实现输出更加细致的肢体动作。
技术领域
本发明涉及人体动作识别获取技术领域,尤指一种基于人工智能获取RGB 视频中3D肢体动作的方法。
背景技术
随着计算机视觉技术的发展,利用视频采集设备进行动作识别成为研究重点。现有的动作识别方法需要从视频流中提取关节位置等数据,并将这些数据输入至三层双向长短时记忆循环人工神经网络中,由该神经网络提取数据的动态特征。随后,将提取出来的动态特征输入至分类器网络,最终获取与视频流的数据相应的动作类型。
目前,以深度学习为基础的视频分析技术发展迅速,如:姿态估计,动作跟踪,人脸特征点检测等,大量重要讯息都可从视频及图像中以计算器视觉算法抽取出来。对于从视频中对肢体动作进行识别,现在的技术一般只输出简陋的信息(如:站立,坐着等)作肢体动作的标签,无法输出比较细致的肢体动作。
发明内容
为解决上述问题,本发明提供一种基于人工智能获取RGB视频中3D肢体动作的方法,主要针对肢体动作识别实用性,研发深度学习模型直接从RGB视频中的肢体动作进行分析,并输出肢体关键点相对应的三维数值数值表达细致的肢体动作。
为实现上述目的,本发明采用的技术方案是:一种基于人工智能获取RGB 视频中3D肢体动作的方法,其算法步骤如下:
S1.服务器端接收包含人体的RGB视频信息;
S2.从视频中计算出人体的位置:从视频中取出每一帧并以图像格式作暂存,并把每一张图片输入人体关键点侦测系统以取得关键点的X及Y坐标;
S3.从视频中计算出人体特征点检测:基于取得的关键点坐标抽取人体特征,并且以人体不同部份区分特征点群;
S4.对人体信息进行数据标准化:对每一个特征点群进行数据标准化;
S5.提取人体信息的特征数据:已标准化的特征点群将成为不同的特征数据;
S6.将特征数据输入到本地存储的深度学习模型;
S7.深度学习模型计算出肢体关键点相对应的三维数值;
S8.对输出的肢体关键点相对应的三维数值进行自动优化。
进一步地,在S1中,用户经网络接口上传视频到服务器,服务器接收的人体信息为用户选择的人体信息。
进一步地,在S1中,包含人体的RGB视频的获取方式为拍摄或从本地获取。
其中,在S3中,人体部分包括左手臂、右手臂、左腿、右腿、躯干及头部。
进一步地,在S4中,以P={p1,p2,...,pn}为所有(n个)特征点,标准化的特征点群P’计算方法如下:
Q=P/(max(P)–min(P))
P’=Q-mean(Q)。
进一步地,在S7中,以特征数据P’作输入并计算出肢体关键点相对应的三维数值bs=P’*M+b,其中M及b分别为深度网络的卷积核参数与偏置层参数,该参数将从深度学习训练过程中求取。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于亿匀智行(深圳)科技有限公司,未经亿匀智行(深圳)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010789617.1/2.html,转载请声明来源钻瓜专利网。
- 上一篇:永久路面结构的力学模型
- 下一篇:一种基于深度两阶段的多晶隐裂检测方法