[发明专利]手部运动重建方法和装置有效
| 申请号: | 201910646553.7 | 申请日: | 2019-07-17 |
| 公开(公告)号: | CN110443884B | 公开(公告)日: | 2021-07-30 |
| 发明(设计)人: | 刘烨斌;李梦成;戴琼海 | 申请(专利权)人: | 清华大学 |
| 主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T7/50;G06T7/80 |
| 代理公司: | 北京清亦华知识产权代理事务所(普通合伙) 11201 | 代理人: | 张润 |
| 地址: | 10008*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 运动 重建 方法 装置 | ||
本发明提出一种手部运动重建方法和装置,其中,方法包括:获取手部深度数据集,其中,手部深度数据集中的每个手部深度数据中包含手部深度图片信息及其对应的手部骨架坐标;控制预设手部模型分别根据手部深度数据集中每个手部深度数据调整姿态,获取姿态调整后的拟合手部模型的姿态参数;根据与每个手部深度数据对应的拟合手部模型的姿态参数高斯分布函数,以便于根据高斯分布函数进行手部运动重建。本发明解决了现有技术中人手的活动较为灵活复杂,与物体交互过程中常常伴随着严重遮挡的技术问题,通过同构单视点的RGB‑D数据,可以获得更加精确的三维重建结果,在较简单的硬件条件下可以获得较好的物体与手部交互重建结果。
技术领域
本发明涉及计算机视觉领域技术领域,尤其涉及一种手部运动重建方法和装置。
背景技术
在三维动态重建领域中,人手的三维重建是一个十分热门的问题。由于人手的动作复杂灵活且常伴有自遮挡的问题,精确的手部动态重建具有很大的挑战性。而手作为人与外界物理接触的主要途径,手部重建在虚拟现实,人机交互等领域有着较大的应用。
通常,人与外界无时无刻不在进行着各种的交互,其中最为频繁的就是手部与外界的物理交互。如果能够较好地重建手部与外界的交互过程,对与理解人与外界的交互的深层含义有着较大的帮助,在工业上,也对于人工智能、计算机交互、VR游戏等领域有着较大的作用。但是人手的活动较为灵活复杂,与物体交互过程中又常常伴随着非常严重的遮挡问题,如何从单视点重建手部与外界的交互是一个具有挑战性的问题。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种手部运动重建方法,可以获得更加精确的三维重建结果,在较简单的硬件条件下可以获得较好的物体与手部交互重建结果。
本发明的第二个目的在于提出一种手部运动重建装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本发明第一方面实施例提出了一种手部运动重建方法,包括:获取手部深度数据集,其中,所述手部深度数据集中的每个手部深度数据中包含手部深度图片信息及其对应的手部骨架坐标;控制预设手部模型分别根据所述手部深度数据集中每个手部深度数据调整姿态,获取姿态调整后的拟合手部模型的姿态参数;根据与所述每个手部深度数据对应的所述拟合手部模型的姿态参数高斯分布函数,以便于根据所述高斯分布函数进行手部运动重建。
本发明实施例的手部运动重建方法,解决了现有技术中人手的活动较为灵活复杂,与物体交互过程中常常伴随着严重遮挡的技术问题,通过同构单视点的RGB-D数据,可以获得更加精确的三维重建结果,在较简单的硬件条件下可以获得较好的物体与手部交互重建结果。
本发明的实施例中,所述控制预设手部模型分别根据所述手部深度数据集中每个手部深度数据调整姿态,获取姿态调整后的拟合手部模型的姿态参数,包括:获取所述手部深度数据集中满足预设条件的第一手部深度数据;根据点云匹配算法和所述第一手部深度数据中的手部深度信息,确定所述预设手部模型的第一姿态参数;通过梯度下降迭代算法和所述第一手部深度数据中的手部骨架坐标,构建所述第一姿态参数的回归矩阵;确定所述手部深度数据集中除所述第一手部深度数据之外的第二手部深度数据,根据所述回归矩阵和所述第二手部深度数据对应的手部骨架坐标计算所述预设手部模型的拟合骨架坐标;根据所述拟合骨架坐标计算所述预设手部模型的第二姿态参数。
本发明的实施例中,所述获取所述手部深度数据集中满足预设条件的第一手部深度数据,包括:确定所述每个手部深度数据对应的参考姿态参数;计算所述参考姿态参数与预设初始姿态参数的差值;确定小于预设阈值的差值对应的手部深度数据为所述第一手部深度数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910646553.7/2.html,转载请声明来源钻瓜专利网。





