[发明专利]一种增强现实交互方法及系统在审
申请号: | 201611130384.4 | 申请日: | 2016-12-09 |
公开(公告)号: | CN106774870A | 公开(公告)日: | 2017-05-31 |
发明(设计)人: | 胡德志;孙碧亮;吴永超 | 申请(专利权)人: | 武汉秀宝软件有限公司 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06T15/00;G06T19/00;H04L29/06 |
代理公司: | 北京轻创知识产权代理有限公司11212 | 代理人: | 杨立,陈璐 |
地址: | 430000 湖北省武汉市东湖新技术开发区武大*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 增强 现实 交互 方法 系统 | ||
技术领域
本发明涉及增强现实技术领域,尤其涉及一种增强现实交互方法及系统。
背景技术
增强现实技术将虚拟世界叠加到现实世界中,被人类感官所感知,从而达到超越现实的感官体验。人与增强现实的交互是增强现实技术里的重要组成部分,目前增强现实中应用的交互基本是通过识别、触控、声控和传感等方式;但是,目前并没有一种通过三维空间坐标来交互的方法。
发明内容
本发明所要解决的技术问题是提供一种实现多人在线交互的增强现实交互方法及系统。
本发明解决上述技术问题的技术方案如下:
一种增强现实交互方法,所述增强现实交互方法包括:
S1:通过终端的摄像头获取现实场景的场景图像,根据所述场景图像建立与所述现实场景相对应的虚拟场景,通过渲染引擎将所述虚拟场景显示在所述终端上;
S2:以所述场景图像的中心为原点建立第一三维空间坐标系,以所述摄像头为原点建立第二三维空间坐标系;
S3:根据所述场景图像、所述第一三维空间坐标系和所述第二三维空间坐标系,得到所述终端在所述现实场景中的位置信息和偏移信息,并同步到服务器端;
S4:将所述服务器端的数据同步显示在所述终端上。
本发明的有益效果是:本技术方案通过对用户手持的终端的位置信息和偏移信息进行跟踪并发布到服务器端进行数据处理和同步,通过渲染引擎显示在用户的终端上,从而实现多人在线增强现实的交互。
在上述技术方案的基础上,本发明还可以做如下改进。
优选地,所述步骤S3中,根据所述场景图像的像素,得到所述终端在所述现实场景中的位置信息,所述位置信息包括所述终端与所述场景图像之间的距离信息和所述终端的高度信息。
优选地,所述步骤S3中,根据所述第一三维空间坐标系和所述第二三维空间坐标系的向量积,得到所述终端在所述现实场景中的偏移信息。
优选地,所述渲染引擎为Unity3D渲染引擎。
一种增强现实交互系统,所述增强现实交互系统包括:
渲染模块,用于通过终端的摄像头获取现实场景的场景图像,根据所述场景图像建立与所述现实场景相对应的虚拟场景,通过渲染引擎将所述虚拟场景显示到所述终端上;
建立模块,用于以所述场景图像的中心为原点建立第一三维空间坐标系,以所述摄像头为原点建立第二三维空间坐标系;
同步模块,用于根据所述场景图像、所述第一三维空间坐标系和所述第二三维空间坐标系,得到所述终端在所述现实场景中的位置信息和偏移信息,并同步到服务器端;
显示模块,用于将所述服务器端的数据同步显示在所述终端上;
其中,所述渲染模块、所述建立模块、所述同步模块和所述显示模块依次连接。
优选地,所述同步模块中,根据所述场景图像的像素,得到所述终端在所述现实场景中的位置信息,所述位置信息包括所述终端与所述场景图像之间的距离信息和所述终端的高度信息。
优选地,所述同步模块中,根据所述第一三维空间坐标系和所述第二三维空间坐标系的向量积,得到所述终端在所述现实场景中的偏移信息。
优选地,所述渲染引擎为Unity3D渲染引擎。
附图说明
图1为本发明的一种增强现实交互方法的流程示意图;
图2为本发明的一种增强现实交互系统的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,一种增强现实交互方法,增强现实交互方法包括:
S1:通过终端的摄像头获取现实场景的场景图像,根据场景图像建立与现实场景相对应的虚拟场景,通过渲染引擎将虚拟场景显示在终端上;
S2:以场景图像的中心为原点建立第一三维空间坐标系,以摄像头为原点建立第二三维空间坐标系;
S3:根据场景图像、第一三维空间坐标系和第二三维空间坐标系,得到终端在现实场景中的位置信息和偏移信息,并同步到服务器端;
S4:将服务器端的数据同步显示在终端上。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉秀宝软件有限公司,未经武汉秀宝软件有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611130384.4/2.html,转载请声明来源钻瓜专利网。