[发明专利]基于虚拟现实技术未来课堂的互动系统及方法在审
申请号: | 202110045162.7 | 申请日: | 2021-01-13 |
公开(公告)号: | CN112732084A | 公开(公告)日: | 2021-04-30 |
发明(设计)人: | 王亚刚 | 申请(专利权)人: | 西安飞蝶虚拟现实科技有限公司 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06T13/20;G06T13/40;G09B5/14;G10L21/0208;G06Q50/20 |
代理公司: | 西安佩腾特知识产权代理事务所(普通合伙) 61226 | 代理人: | 张倩 |
地址: | 710021 陕西省西安市未*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 虚拟现实 技术 未来 课堂 互动 系统 方法 | ||
本发明涉及虚拟现实技术领域,一种基于虚拟现实技术未来课堂的互动方法,包括步骤1)将人物与资源库中的模型绑定;2)采集人物的实时动作信息和人物的实时声音信息;3)对实时动作信息和实时声音信息进行解析;4)与模型的属性数据进行匹配;5)上传;6)分配;7)互动,通过将实时采集的动作与声音信息与模型匹配,提高模型互动的亲切感;通过模型的碰撞属性完成动作的互动,提高互动方式,增强用户代入感。
技术领域
本发明涉及虚拟现实技术领域,具体涉及一种基于虚拟现实技术未来课堂的互动系统及方法。
背景技术
虚拟现实(VR)是指借助计算机系统及传感器技术人为创造一个三维场景,在这个人造的三维场景中,每个物体相对于系统的坐标系都有一个位置与姿态,用户看到的景象是由用户的位置和头(眼)的方向来确定的。虚拟现实创造出一种崭新的人机交互状态,通过调动用户所有的感官(视觉、听觉、触觉、嗅觉等),带来更加真实的、身临其境的体验,广泛应用于媒体、社交、教育等领。
目前,虚拟现实教学广泛应用于在线课程教学中,学生通过观看虚拟现实课堂就能够在沉浸式的环境同时进行知识课程的学习,这不仅有利于提高学生的学习兴趣,并且还有助于改善学生的学习效率。
现有的动画互动形式和模型动作单一,减少了用户使用使的投入感,不能一对一进行有效互动,互动不充分,降低学习效率,难以大范围推广。
发明内容
针对现有技术的不足,本发明的目的在于提供一种基于虚拟现实技术未来课堂的互动系统及方法,解决现有技术互动形式单一的问题。
为实现上述目的,本发明提供如下技术方案:一种基于虚拟现实技术未来课堂的互动系统,其特征在于,包括互动模块和至少两个虚拟动画生成系统,所述虚拟动画生成系统包括:
关联模块:用于将人物与资源库中对应的模型绑定,所述模型拥有多个属性数据;
动作采集模块:用于采集人物的实时动作;
声音采集模块:用于采集人物的实时声音;
信息解析模块:用于对实时动作信息和实时声音信息进行解析,生成实时动作参数信息和多方位声音信息;
模型行为数据生成模块:用于将实时动作参数信息与模型的属性数据进行匹配,得到虚拟动作数据;将多方位声音信息进行处理生成虚拟声音数据;同时将虚拟声音数据与虚拟动作数据组合生成模型行为数据;
传输模块:用于将模型行为数据上传至中转模块;
中转模块:用于将模型行为数据接收后分配给需要互动的用户;
互动模块:将用户收到的模型行为数据生成与人物行为一致的虚拟动画进行展示,同时用户对所展示的虚拟动画做出反馈行为,并通过动画生成系统将反馈行为生成相应的模型行为数据后发送给需要接收反馈的用户,最终在互动模块中进行虚拟动画展示,以此循环直至互动完成。
进一步限定,所述信息解析模块包括:
动作解析模块:用于将实时动作信息解析为实时动作参数信息,所述实时动作参数信息包括动作部位信息、位移信息和角度信息,所述属性数据包括骨骼信息、动画信息和边缘信息;
声音解析模块:用于将实时声音信息解析为多个不同方位的声音信息,生成多方位声音信息;
所述模型行为数据生成模块包括:
匹配模块:将动作部位信息与模型的骨骼信息绑定,同时将单个位移信息和单个角度信息与模型的单个动画信息进行匹配,得到单个虚拟动作数据;
声音生成模块:用于将多方位声音信息进行编码生成虚拟声音数据;
组合模块:用于将单个虚拟动作数据与虚拟声音数据组合,生成模型行为数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安飞蝶虚拟现实科技有限公司,未经西安飞蝶虚拟现实科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110045162.7/2.html,转载请声明来源钻瓜专利网。