[发明专利]一种人眼瞳孔定位的方法及装置有效
申请号: | 201910561383.2 | 申请日: | 2019-06-26 |
公开(公告)号: | CN110263745B | 公开(公告)日: | 2021-09-07 |
发明(设计)人: | 崔利阳;孙建康;李纲;薛亚冲;楚明磊;陈丽莉;张浩;陈明 | 申请(专利权)人: | 京东方科技集团股份有限公司;北京京东方光电科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 李欣 |
地址: | 100015 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 瞳孔 定位 方法 装置 | ||
本申请公开了一种人眼瞳孔定位的方法及装置,该方法包括:采集用户在注视屏幕上预设的多个注视点中每个注视点时的人眼图像,提取所述每个注视点的人眼图像的瞳孔参数,并根据所述瞳孔参数确定注视点和人眼瞳孔之间的初始映射函数;实时采集用户在当前注视所述屏幕时的第一人眼图像,提取所述第一人眼图像的瞳孔参数;确定出所述预设的多个注视点对应的人眼图像中与第一人眼图像对应的瞳孔轮廓向量之间距离最小的第二人眼图像;基于所述第一人眼图像、所述第二人眼图像所对应的瞳孔的中心点修正所述初始映射函数,并基于修正后的映射函数确定用户当前注视所述屏幕的位置。解决了现有技术中人眼瞳孔定位不准确的技术问题。
技术领域
本申请涉及虚拟现实技术领域,尤其涉及一种人眼瞳孔定位的方法及装置。
背景技术
随着虚拟现实(Virtual Reality,VR)技术的迅速发展,VR设备可以通过多维度将文字、视频或者音频等传递给用户,提高用户的体验感受,受到越来越多的用户的喜爱。
为了保证用户在佩戴VR设备时,实现人机交互,需要对人眼的眼球进行追踪。目前,眼球追踪技术一般是:通过预设先VR设备显示屏上标定的多个注视点,然后,通过摄像头采集用户注视每个标定注视点时眼部图像信息,通过眼部图像信息确定瞳孔中心,根据标定的多个注视点和瞳孔中心,确定注视点和瞳孔之间的映射模型,实时采集用户当前注视VR设备显示屏时眼部的图像信息,然后,确定用户当前注视VR设备显示屏时瞳孔中心,根据注视点和瞳孔之间的映射模型,确定出用户当前注视VR设备显示屏上的位置。但是,VR设备和人眼之间可能会出现相对的滑动,基于标定的多个注视点确定的映射模型去计算人眼注视显示屏的位置,导致人眼瞳孔定位不准确,进而影响用户的体验感受。
发明内容
本申请提供一种人眼瞳孔定位的方法及装置,用以解决现有技术中人眼瞳孔定位不准确的技术问题。
第一方面,本申请实施例提供一种人眼瞳孔定位的方法,该方法包括:
采集用户在注视屏幕上预设的多个注视点中每个注视点时的人眼图像,提取所述每个注视点的人眼图像的瞳孔参数,并根据所述瞳孔参数确定注视点和人眼瞳孔之间的初始映射函数,其中,所述瞳孔参数包括瞳孔轮廓向量和瞳孔的中心点;
实时采集用户在当前注视所述屏幕时的第一人眼图像,提取所述第一人眼图像的瞳孔参数;
确定出所述预设的多个注视点对应的人眼图像中与第一人眼图像对应的瞳孔轮廓向量之间距离最小的第二人眼图像;
基于所述第一人眼图像、所述第二人眼图像所对应的瞳孔的中心点修正所述初始映射函数,并基于修正后的映射函数确定用户当前注视所述屏幕的位置。
本申请实施例所提供的方案中,通过采集用户在注视屏幕上预设的多个注视点中每个注视点时的人眼图像,并根据提取人眼图像的瞳孔参数确定注视点和人眼瞳孔之间的初始映射函数,然后,实时采集用户在当前注视屏时的第一人眼图像,提取第一人眼图像的瞳孔参数,并从预设的多个注视点所对应的人眼图像中确定出与第一人眼图像的瞳孔参数之间距离最小的第二人眼图像,基于第一人眼图像和第二人眼图像对应的瞳孔的中心点对初始映射函数进行修正,并基于修正后的映射函数确定用户当前注视所述屏幕的位置。因此,本申请实施例通过实时采集的第一人眼图像和第二人眼图像对应的瞳孔的中心点对初始映射函数进行修正,避免无法对映射函数进行修正,导致的人眼瞳孔定位不准确,进而影响用户的体验感受。
可选地,根据所述瞳孔参数确定注视点和人眼瞳孔之间的初始映射函数,包括:
基于同一坐标系确定所述每个注视点的坐标,以及确定所述每个注视点的人眼图像所对应的瞳孔的中心点坐标;
将所述每个注视点的坐标以及所述每个注视点所对应的瞳孔的中心点坐标分别代入预设的拟合函数,得到注视点与人眼瞳孔之间的初始映射函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于京东方科技集团股份有限公司;北京京东方光电科技有限公司,未经京东方科技集团股份有限公司;北京京东方光电科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910561383.2/2.html,转载请声明来源钻瓜专利网。
- 上一篇:提高无感人脸识别率的方法
- 下一篇:基于姿势的视觉搜索