[发明专利]一种基于深度感知的虚拟现实系统空间定位方法有效

专利信息
申请号: 201911161468.8 申请日: 2019-11-25
公开(公告)号: CN111007939B 公开(公告)日: 2021-09-21
发明(设计)人: 秦华标;刘红梅 申请(专利权)人: 华南理工大学
主分类号: G06F3/01 分类号: G06F3/01
代理公司: 广州粤高专利商标代理有限公司 44102 代理人: 何淑珍;江裕强
地址: 510640 广*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 基于 深度 感知 虚拟现实 系统 空间 定位 方法
【权利要求书】:

1.一种基于深度感知的虚拟现实系统空间定位方法,其特征在于,包括以下步骤:

S1、基于注视点构建人眼视觉系统的深度感知模型:当用户利用头戴式VR设备观看VR空间的目标时,由基于瞳孔角膜反射技术的视线跟踪算法估计左右眼视线方向,然后利用空间解析几何知识计算这两条视线在空间中的最近点,该点即为人类的视线注视点;将注视点与人眼位置结合构建视觉系统在虚拟空间的深度感知模型;建立视觉系统在虚拟环境中的深度感知模型具体过程如下:

由视线注视点与虚拟空间坐标系统下的双眼中点计算视觉系统的深度感知,公式表述如下:

其中为t时刻左右眼球中心位置,为双眼中心,Qht为视觉系统在虚拟空间的深度感知;

S2、基于注视点信息计算目标点位置:分析双目视觉的注视行为和相机成像的透视投影原理,比较两者关系,利用步骤S1计算出的注视点位置建立相对人眼视觉感知的内参矩阵,并依据该内参矩阵计算虚拟空间中3D注视点在图像上的2D投影点位置;然后根据注视点和VR空间中的目标点在2D图像上的投影位置相同的特点,使用注视点的投影位置和虚拟摄像机的参数计算此时注视的目标点在虚拟空间的3D位置,该点即为人类注视的虚拟空间中3D目标点位置;基于视线注视点建立相对视觉感知的内参矩阵具体过程如下:

虚拟摄像机依据透视投影获得3D点和2D投影点的关系,在摄影几何中,虚拟摄像机的透视投影模型如下:

其中(x,y,z)表示虚拟空间中目标点的3D坐标,(x,y,z,1)为其齐次坐标形式,(u,v)为图像上的2D投影点,(u,v,1)为其齐次坐标形式,K表示虚拟摄像机内参矩阵,T为虚拟摄像机外参矩阵;内参矩阵中sx和sy表示在图像x轴和y轴上像素的焦距,ox和oy表示摄像机主点;在虚拟现实系统中,设定虚拟相机视差和人眼双目视差相同;同时忽略两者之间的偏移量,则虚拟摄像机位置和人眼球位置保持一致;不考虑头部和头盔之间的相对移动,则外参矩阵T相同,由VR系统直接获得;

对比分析虚拟摄像机的透视投影原理和人眼的成像模型,利用虚拟空间中的注视点信息计算相对视觉感知的内参矩阵,所述相对视觉感知的内参矩阵如下:

shx=Qht(z)·mx

shy=Qht(z)·my

ohxl=(wI-de·mx)/2;

ohxr=(wI+de·mx)/2;

oy=hI/2;

mx=wI/wd

my=hI/hd

Kh表示相对视觉感知的内参矩阵,shx、shy分别使用像素来描述x轴和y轴方向上焦距的长度,单位是pixel,ohx和ohy表示主点在x轴和y轴上的位置,shx、shy、ohx和ohy与虚拟摄像机参数意义相同;其中参数wI、hI、wd、hd、de分别表示图像的宽和高(pixel),屏幕的宽和高(mm)以及两眼间距,Qht(z)为视觉系统感知的深度距离值;

计算视线注视的虚拟目标点3D位置具体过程如下:

根据视线注视点位置以及相对视觉感知的内参矩阵Kh和外参矩阵T,通过透视投影模型获得左右视差图上的投影点ztl和ztr;然后根据注视点和目标点在图像上的投影位置相同的特点,利用投影点和虚拟摄像机的位置和方位参数,由三角测量原理计算投影点的空间位置即目标点由ztl和ztr计算空间点,如下所示:

stlztl=strRztr+t;

R,t表示两个虚拟相机之间的变换,由虚拟现实系统得到;stl和str表示两个投影点的深度距离;由该式求出双目视差图下的投影点深度,从而确定虚拟目标点的空间坐标和

S3、量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异:使用虚拟摄像机位置和步骤S2计算出的3D目标点位置获得VR系统设定的深度感知信息;将VR系统设定的深度感知与由注视点获得的视觉系统的深度感知进行比较,量化两者之间的深度感知差异;

量化人类视觉系统在虚拟环境中的深度感知和VR系统设定的深度感知的差异具体过程如下:

在t时刻,双眼通过双目视差图Itl和Itr观看目标点时,由于人类视觉系统的参数和VR系统中的虚拟摄像机参数不同,视觉系统形成的深度感知和VR建立的立体效果不同;通过比较视觉系统深度感知和VR系统设定的深度感知,量化两者差异,差异如下所示:

ΔQt=Qvt-Qht

不考虑头戴式显示设备和头部(HMD-Head)的相对偏移,双目视线的起点与HMD相对位置固定;设定双目虚拟摄像机位置和人的双眼位置相同,即EV=PV;则两者差异简化形式如下所示:

S4、定位感知的自身位置:通过量化的深度感知差异对此时的虚拟摄像机位置进行补偿,得到校正后的空间位置,即为用户感知的自身在虚拟空间的位置,定位感知的自身位置具体过程如下:

步骤S3中量化的深度感知差异即为视觉系统在虚拟和物理环境的深度感知差异,由量化的差值ΔQt对此时的虚拟摄像机位置PV进行补偿,最终得到的空间位置即为用户感知的自身相对虚拟场景的位置如下所示:

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华南理工大学,未经华南理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201911161468.8/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top