[发明专利]一种基于虚拟人物模型的人体运动姿态数据集生成方法在审
| 申请号: | 202210767092.0 | 申请日: | 2022-06-30 |
| 公开(公告)号: | CN115018962A | 公开(公告)日: | 2022-09-06 |
| 发明(设计)人: | 王章静;刘陈浩;赵铖鑫;吴泽源;仇隆 | 申请(专利权)人: | 电子科技大学 |
| 主分类号: | G06T13/40 | 分类号: | G06T13/40;G06T17/00 |
| 代理公司: | 电子科技大学专利中心 51203 | 代理人: | 邹裕蓉 |
| 地址: | 611731 四川省成*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 虚拟 人物 模型 人体 运动 姿态 数据 生成 方法 | ||
本发明提供了一种基于虚拟人物模型的人体运动姿态数据集生成方法,使用虚拟人物模型运动代替真实人体运动作为数据源,解决人体运动姿态数据集采集受到真实人体运动限制的问题,包括步骤:步骤1、人物模型播放符合人体解剖学的骨骼动画;步骤2、根据三维场景使用反向运动学算法修正模型动作;步骤3、设置虚拟IMU,记录虚拟人物模型动作序列数据;步骤4、将动作序列中虚拟坐标系数据转换为现实人体所在坐标系数据;步骤5、对现实人体所在坐标系数据进行时间平滑和数据整合,得到人体运动姿态数据集。本发明具有数据集采集难度低、不受环境干扰、采集精度高的优点。
技术领域
本发明属于惯性动作捕捉和人体动作姿态预测技术,具体涉及基于虚拟人物模型的人体运动姿态数据集生成技术。
背景技术
人体运动姿态估计是指利用机械装置、光学、声学、电磁学或者惯性传感器等设备获取人体运动数据并将运动姿态重现的技术。依托于此技术的人体运动姿态与位置估算技术的开发是以传感器学、运动力学、导航、人体结构学和物理学等多学科理论研究为基础,结合体感网络、虚拟现实等多学科跨领域交叉问题,具有较高的科研价值和商业价值。
人体姿态预测网络作为深度学习在人体运动姿态估计领域的应用,可以根据人体骨骼动作序列旋转姿态、空间位置等信息实现无传感器绑定骨骼姿态预测、人体行为活动识别、用户身份认证等功能。获取用于训练人体姿态预测网络的人体动作数据是此领域研究的难点之一,如何获取拥有广泛动作特征的人体运动姿态数据集在人体运动姿态预测领域成为一个值得研究的课题。虚拟人物模型通过骨骼动画的方式驱动人物模型各骨骼动作,可以在一定程度上模拟出需要的现实人体动作。虚拟人物模型的骨骼动作可以替代真实人体动作成为人体运动姿态数据集的动作源,在降低人体运动姿态数据集的采集成本的同时提升了所采集运动姿态数据集的采集精度。
目前的人体运动姿态数据集采集方法通过传感器对真实的人体运动进行采集。使用传感器对真实人体运动进行采集受到采集设备和采集场地的限制,无法大规模地进行数据采集;另一方面,受限于动作采集人员的体能和技术水平,难以进行长时间复杂的动作采集。特别地,当需要采集攀岩、滑雪等户外才能进行的动作或者存在长距离位移的动作时,使用传统真实数据采集方法需要进行额外的适配增加了动作采集成本。由于单一采集人员存在运动习惯,使用单一真实人体进行采集所容易出现大量重复动作,因此需要不同采集人员进行动作采集,限制了所采数据集的动作广度。另外的,传统动作数据采集方法需要在采集前确定人体运动坐标系,在不同坐标系下使用此数据需要额外的坐标系转换,在无法知晓采集坐标时,数据坐标系对齐困难。最后,传统真实数据采集方法容易受到光照、电磁波、障碍物等因素的影响导致采集动作出现帧率下降、动作畸变等问题。综上,目前的人体运动数据集采集方法存在成本高、受采集人员动作限制、动作广度低、数据坐标对齐困难、易受干扰等问题。
发明内容
本发明所要解决的技术问题是,为减少人体运动姿态预测网络训练所需的真实人体动作数据规模,增强骨骼姿态预测网络适应性,提供一种从虚拟人物动作中提取人体姿态预测网络所需训练数据的方法。
本发明为解决上述技术问题所采用的技术方案是,一种基于虚拟人物动作数据的人体运动姿态数据集生成方法,包括步骤:
步骤1、从播放的骨骼动画中获取符合人体解剖学的人物模型;
步骤2、根据三维场景使用反向运动学算法修正虚拟人物模型动作;
步骤3、设置虚拟惯性测量单元,记录虚拟人物模型动作序列;
步骤4、将虚拟人物模型动作序列中虚拟坐标系数据转换为现实人体所在坐标系数据;
步骤5、对现实人体所在坐标系数据进行时间平滑和数据整合得到人体运动姿态数据集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于电子科技大学,未经电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210767092.0/2.html,转载请声明来源钻瓜专利网。





