[发明专利]一种基于Kinect体感设备的多视点自由立体交互系统在审
申请号: | 201310323324.4 | 申请日: | 2013-07-30 |
公开(公告)号: | CN103440677A | 公开(公告)日: | 2013-12-11 |
发明(设计)人: | 王琼华;李述利;张杰;刘军;邓欢 | 申请(专利权)人: | 四川大学 |
主分类号: | G06T15/00 | 分类号: | G06T15/00;G06T1/20;G06F3/01 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出一种基于Kinect体感设备的多视点自由立体交互系统。该系统包括Kinect体感设备、计算机和多视点自由立体显示器。该系统将多视点自由立体显示技术、虚拟现实技术和体感技术相结合,利用Kinect体感设备实时获取人体骨骼数据,由多帧平滑处理后的骨骼数据判断用户做出的特定的肢体动作,将肢体动作转化为与3D虚拟场景交互的控制响应命令,基于GPU实时渲染更新后的3D虚拟场景并生成合成图像,并输出至多视点自由立体显示器上实时显示,用户无需佩戴助视设备即可观看到可交互的立体画面。 | ||
搜索关键词: | 一种 基于 kinect 设备 视点 自由 立体 交互 系统 | ||
【主权项】:
一种基于Kinect体感设备的多视点自由立体交互系统,其特征在于,该系统包括Kinect体感设备、计算机和多视点自由立体显示器;所述Kinect体感设备用于获取用户的骨骼信息,并将所述骨骼信息传送至计算机;所述计算机用于根据所述Kinect体感设备反馈的骨骼信息判断用户做出的肢体动作,并转换为与3D虚拟场景交互的控制响应命令,计算机的显卡核心GPU(图形处理器)用于实时渲染3D虚拟场景而得到多幅视差图像,并利用GPU并行处理数据的能力快速生成合成图像;所述多视点自由立体显示器用于显示生成的合成图像,使用户观看到3D虚拟场景的立体画面。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201310323324.4/,转载请声明来源钻瓜专利网。