[发明专利]一种在虚拟现实场景中的眼动追踪自动校准方法有效
申请号: | 201810985487.1 | 申请日: | 2018-08-28 |
公开(公告)号: | CN109240497B | 公开(公告)日: | 2021-07-13 |
发明(设计)人: | 陆峰;蒋雨薇;于洋 | 申请(专利权)人: | 北京航空航天大学青岛研究院;北京航空航天大学 |
主分类号: | G06F3/01 | 分类号: | G06F3/01 |
代理公司: | 青岛中天汇智知识产权代理有限公司 37241 | 代理人: | 刘晓 |
地址: | 266000 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 虚拟现实 场景 中的 追踪 自动 校准 方法 | ||
本发明提供一种在虚拟现实场景中的眼动追踪自动校准方法,包括:在虚拟场景的眼动追踪应用中,通过未校准的眼动追踪算法估计用户注视点,并根据注视点选择视觉区域,从而判断用户注视的物体,通过用户注视物体自身特征和注视区域内符合一定规则的物体个数来计算注视物体的显著性概率,并通过显著性概率选择校准物体,从而通过多个校准物体对系统进行校准。本发明提出的方法对用户要求较低,有利于眼动追踪技术的使用和推广。
技术领域
本发明涉及计算机视觉和计算机图形学领域,具体地说是一种在虚拟现实场景中的眼动追踪自动校准方法。
背景技术
随着眼动追踪技术的快速发展,眼动追踪在计算机视觉领域的关注度也日益增加。而由于每个用户的眼睛的生理结构存在一些差异,因此目前大多眼动追踪系统需要在使用前对用户进行校准,以获得眼睛半径、角膜曲率、视轴和光轴之间的角度差等眼球生理数据。主流的眼动追踪设备仅能估计用户眼球的光轴,并根据光轴计算用户注视点,然而实际上用户注视点是由视轴决定的,视轴和光轴之间存在夹角,且该夹角大小因人而异。若使用光轴估计注视点,则估计注视点与实际注视点误差会相对较大。因此主流的眼动追踪设备需要用户以一定形式凝视校准点,进行用户校准,从而获取视轴与光轴的夹角,估计该用户的视轴,从而计算注视点。此种校准方式需要用户集中注意力去看场景中的点,过程较为繁琐,对用户的要求较高。
基于上述提出一种对用户要求较低的眼动追踪自动校准方法,则成为本发明所面临的重要课题。
发明内容
针对目前的校准方法需要用户主动与注视点进行交互,对用户要求较高,且较为繁琐等缺陷,本发明提出一种在虚拟现实场景中的眼动追踪自动校准方法,通过用户在场景里的自由漫游,对眼动追踪系统进行校准。
本发明采用以下的技术方案予以实现:
一种在虚拟现实场景中的眼动追踪自动校准方法,包含以下步骤:
(1)用户自由漫游场景,使用未校准眼动追踪算法获取注视点,并记录;
(2)选择一定范围的视觉区域,获取并计算该区域的物体信息;
(3)估计用户注视物体,计算该物体显著性,从而选择校准物体;
(4)统计校准物体个数,大于阈值则将所有选中的校准物体的中心点作为多个校准点,并进行校准;
进一步地,所述步骤(2)的视觉区域选择主要包括以下步骤:
(2A.1)连接注视点和头显在场景中的位置坐标点为一条直线;
(2A.2)以注视点为圆心垂直(2A.1)中的直线建一个圆面,半径为R1;
(2A.3)以(2A.2)中圆面为底以头显位置坐标点为顶点建一个圆锥作为视锥;
(2A.4)在视锥底面圆下建一个以(2A.1)中直线为中轴线半径为R1的半球;
(2A.5)半球和视锥组成视觉区域。
进一步地,步骤(2)的获取并计算该区域的物体信息主要包括以下步骤:
(2B.1)寻找中心点坐标在视觉区域内的物体并标记;
(2B.2)统计视觉区域的物体个数;
(2B.3)根据中心点坐标计算该区域每个物体的深度和位置范围。
进一步地,步骤(3)的选择校准物体并进行相应计算主要包括以下步骤:
(3.1)根据用户注视点和视觉区域的物体位置范围判断注视物体;
(3.2)计算用户注视时间,并计算时间显著性概率;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学青岛研究院;北京航空航天大学,未经北京航空航天大学青岛研究院;北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810985487.1/2.html,转载请声明来源钻瓜专利网。