[发明专利]一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法在审
| 申请号: | 201711052053.8 | 申请日: | 2017-10-30 |
| 公开(公告)号: | CN107770561A | 公开(公告)日: | 2018-03-06 |
| 发明(设计)人: | 徐媛媛 | 申请(专利权)人: | 河海大学 |
| 主分类号: | H04N21/2343 | 分类号: | H04N21/2343;G06F3/01 |
| 代理公司: | 南京苏高专利商标事务所(普通合伙)32204 | 代理人: | 王安琪 |
| 地址: | 210098 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 利用 跟踪 数据 分辨率 虚拟现实 设备 屏幕 内容 编码 算法 | ||
1.一种利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法,其特征在于,包括如下步骤:
(1)使用虚拟现实头戴式设备的眼动跟踪数据预测未来的视点,采用自回归滑动平均方法进行视点预测;
(2)基于预测的视点信息,对屏幕内容的区域进行划分,分配相应的重要性等级,为重要等级高的区域分配较多的编码资源,为重要等级低的区域分配较少的编码资源;
(3)对分辨率调节后的屏幕内容视频进行编码生成码流,经网络发送给虚拟现实用户,经解码后显示在虚拟现实头戴式设备上。
2.如权利要求1所述的利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法,其特征在于,步骤(1)中,自回归滑动平均方法进行视点预测具体为:如果将在时刻t的视点位置和眼球运动速度分别记为pt和vt,那么时刻t的眼球运动速度可预测为:
vt=αvt-1+(1-α)(pt-pt-1)
其中α为0≤α≤1的常数,那么未来在t+f时刻的视点位置可用下列公式进行预测:
pt+f=pt+fvt。
3.如权利要求1所述的利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法,其特征在于,步骤(2)中,对屏幕内容的区域进行划分,划分的片均匀或不均匀分布,片的重要等级依据距离未来视点的距离而定。
4.如权利要求3所述的利用眼动跟踪数据的多分辨率虚拟现实设备屏幕内容编码算法,其特征在于,步骤(2)中,含有未来视点的片划分为最重要的区域,视点可能移动的几个方向为次重要的区域,其他区域为较为不重要的区域。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711052053.8/1.html,转载请声明来源钻瓜专利网。
- 数据显示系统、数据中继设备、数据中继方法、数据系统、接收设备和数据读取方法
- 数据记录方法、数据记录装置、数据记录媒体、数据重播方法和数据重播装置
- 数据发送方法、数据发送系统、数据发送装置以及数据结构
- 数据显示系统、数据中继设备、数据中继方法及数据系统
- 数据嵌入装置、数据嵌入方法、数据提取装置及数据提取方法
- 数据管理装置、数据编辑装置、数据阅览装置、数据管理方法、数据编辑方法以及数据阅览方法
- 数据发送和数据接收设备、数据发送和数据接收方法
- 数据发送装置、数据接收装置、数据收发系统、数据发送方法、数据接收方法和数据收发方法
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置
- 数据发送方法、数据再现方法、数据发送装置及数据再现装置





