[发明专利]电子装置及电子装置的操作控制方法在审

专利信息
申请号: 201810507015.5 申请日: 2018-05-24
公开(公告)号: CN110531843A 公开(公告)日: 2019-12-03
发明(设计)人: 吴伟;郭旭铭 申请(专利权)人: 富泰华工业(深圳)有限公司;鸿海精密工业股份有限公司
主分类号: G06F3/01 分类号: G06F3/01;G06F3/042
代理公司: 44334 深圳市赛恩倍吉知识产权代理有限公司 代理人: 刘永辉;谢蓓<国际申请>=<国际公布>=
地址: 518109 广东省深圳市宝安区观澜街道大三社*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供一种电子装置及电子装置的操作控制方法,所述电子装置包括处理器、投影单元及采集单元,该处理器包括投影模块,响应用户的输入操作,控制所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;侦测模块,控制所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;确定模块,确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及控制模块,响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。本发明将电子装置的操作界面投影在其他载体上,用户可以在投影界面上操控电子装置,提高了人机交互的操作灵活性和便利性。
搜索关键词: 电子装置 投影 采集单元 操作界面 触控操作 手势操作 投影单元 预设区域 处理器 控制模块 人机交互 输入操作 投影模块 用户执行 侦测模块 便利性 响应 操控 侦测
【主权项】:
1.一种电子装置,包括处理器,其特征在于,所述电子装置还包括投影单元及采集单元,该处理器包括:/n投影模块,用于响应用户的输入操作,控制所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;/n侦测模块,用于控制所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;/n确定模块,用于确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及/n控制模块,用于响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。/n
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于富泰华工业(深圳)有限公司;鸿海精密工业股份有限公司,未经富泰华工业(深圳)有限公司;鸿海精密工业股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810507015.5/,转载请声明来源钻瓜专利网。

同类专利
  • 一种数据监测实验方法、装置、终端设备及存储介质-201810861644.8
  • 姚洋;谢津;王龙飞;周晖晖 - 深圳先进技术研究院
  • 2018-08-01 - 2020-02-14 - G06F3/01
  • 本发明公开了一种数据监测实验方法、装置、终端设备及存储介质。所述方法包括:获取待测对象所处的外部场景;根据所述外部场景的标识物选取对应的虚拟场景;将所述外部场景和所述虚拟场景叠加后向所述待测对象展示,并监测展示后所述待测对象的生理体征数据。本发明利用该方法能够基于获取的外部场景及对应的虚拟场景为待测对象营造感官效果真实的环境,然后在该环境下测得待测对象的生理体征数据。从而避免了对待测对象的物理伤害,且更加真实的实验环境能够提高监测的生理体征数据的准确性。
  • 一种基于用户动作确定购物指令的方法和装置-201810862396.9
  • 吴晓洋 - 北京京东尚科信息技术有限公司;北京京东世纪贸易有限公司
  • 2018-08-01 - 2020-02-14 - G06F3/01
  • 本发明公开了一种基于用户动作确定购物指令的方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:当设定区域内存在用户时,连续采集指定数量的该设定区域的图像,以组成图像组;若该图像组有效,则基于其中每张有效图像的采集顺序和每个骨骼特征点的位置,确定该图像组的骨骼特征点运动趋势图;将该骨骼特征点运动趋势图,输入购物指令匹配模型,确定是否存在相匹配的购物指令,若存在,则确定该相匹配的购物指令为用户的购物指令。该实施方式能够在智能购物过程中,带给用户更好的购物体验。
  • 虚拟现实协同处理方法、装置和系统-201810864441.4
  • 刘畅 - 北京鑫媒世纪科技发展有限公司
  • 2018-08-01 - 2020-02-14 - G06F3/01
  • 本申请公开了一种虚拟现实协同处理方法、装置和系统。其中,方法包括在第一主机设备和第二主机设备之间建立通信链路,创建虚拟场景,其中虚拟场景包括虚拟物体,将与第一虚拟现实终端对应的第一虚拟形象和与第二虚拟现实终端对应的第二虚拟形象显示在虚拟场景中,以使得佩戴第一虚拟现实终端的用户和佩戴第二虚拟现实终端的用户之间能够通过该虚拟现实终端看到虚拟场景和对方的虚拟形象;基于通信链路在第一主机设备和第二主机设备之间进行数据传输。该方法能够在第一主机设备和第二主机设备之间建立关联,将一个主机设备中的虚拟场景图像协同显示在其他主机设备中,通过服务器分担了主机设备的数据处理负担,能够加快数据处理的速度。
  • 使用仿生韧带的触觉回馈系统-201810870436.4
  • 林家宇;陈志强 - 宏碁股份有限公司
  • 2018-08-02 - 2020-02-14 - G06F3/01
  • 本发明公开了一种应用于虚拟现实的触觉回馈系统,其包括集线装置、回馈点穿戴装置组、仿生韧带组、动力装置,以及微控制单元。回馈点穿戴装置组包括多个穿戴装置,由用户穿戴在多个回馈部位。仿生韧带组包括多条仿生韧带,其第一端固定在一相对应回馈点穿戴装置,而其第二端收纳在集线装置内。动力装置用来对多条仿生韧带施加多组拉力。微控制单元用来根据虚拟现实情境来指示动力装置调整多组拉力的值,进而对每一回馈部位提供相对应的触觉回馈。因此,本发明虚拟现实触觉回馈系统使用重量轻盈的仿生韧带,不会因为汗水而影响施加触觉回馈的准确度,也不会对用户的身体造成任何伤害。
  • 车载智能交互系统的人机交互反馈-201810877099.1
  • 张蕊;高峰;于尔根 - 蔚来汽车有限公司
  • 2018-08-03 - 2020-02-14 - G06F3/01
  • 本发明涉及车载智能交互系统的人机交互反馈,属于车辆技术领域。本发明的人机交互反馈装置用于在人机交互过程中向用户反馈所述车载智能交互系统的响应状态信息,其包括:光环显示组件,其用于根据所述响应状态信息发光从而形成能够其显示状态能够多样变化的光环;和/或光晕显示组件,其用于根据所述响应状态信息发光从而形成其显示状态能够多样变化的光晕。本发明的人机交互反馈装置实现成本低、用户体验好。
  • 一种基于Kinect的手势追踪和精准指尖定位系统-201910530111.6
  • 吕倩;葛文潇;魏昕;陈建新 - 南京邮电大学
  • 2019-06-19 - 2020-02-14 - G06F3/01
  • 本发明涉及一种基于Kinect的手势追踪和精准指尖定位方法,该方法提高了手部无序运动的追踪质量和指尖定位的精准性。以Kinect为例,该方法包括从中读取深度信息,通过骨骼数据的辅助,采用前向运动学完成对于手部骨骼信息的遮挡修复。对得到优化后的骨骼关节点信息后,采用卡尔曼滤波算法,对追踪的手掌的运动信息进行平滑处理;随后,利用实时手掌坐标信息,采取先粗提取后精提取的连通区域分析算法从深度图像中提取出手部区域;最后,获取手部轮廓的凸包,采用分析凸包和掌心点的几何关系的方法滤除指尖近似点,计算曲率值获得精确指尖点。由此实现了对手部的实时追踪,根据实验结果分析,提高了指尖定位的准确性。
  • 自动实行服务的方法、自主移动用户设备和后端推荐系统-201910710867.9
  • T.赫恩;A.E.艾斯阿德 - 大众汽车有限公司
  • 2019-08-02 - 2020-02-14 - G06F3/01
  • 该提议涉及一种用于为用户自动实行服务的方法。这样的方法包括:在用户的自主移动用户设备(10)中接收用以实行指定服务的指令的步骤。从后端推荐系统(410)接收这样的指令。自主移动用户设备(10)在没有明确用户同意的情况下执行所述指定的服务,并且向用户报告所述指定的服务的执行。一旦已经从用户接收到对服务的执行的反馈,自主移动用户设备(10)就将所述用户反馈报告给所述后端推荐系统(410)。后端推荐系统(410)运行机器学习算法以改进所述后端推荐系统(410)中的后端推荐引擎(412)的推荐准确性。
  • 在增强/虚拟现实环境中使用的触控笔设备和输入设备-201910717412.X
  • 安德烈亚斯·康奈兰;费尔加尔·科科兰;皮尔斯·布拉迪 - 罗技欧洲公司
  • 2019-08-05 - 2020-02-14 - G06F3/01
  • 本发明提供一种用于在增强/虚拟现实环境中使用的触控笔设备和输入设备。在一些实施方式中,触控笔设备可以被配置用于在增强/虚拟(AR/VR)现实环境中使用,并且可以包括第一部分和第二部分,其中壳体的第一部分基本上是线性的并且可以被配置成在触控笔设备在使用中时由用户的手握持。第一部分可以包括尖端,该尖端被配置成作为触控笔设备与AR/VR环境内的对象之间的接口进行操作。壳体的第二部分可以是非线性的并且弯曲以遍历三个维度,包括第二部分的朝向与壳体的第一部分共线的线纵向弯曲的部分。在一些情况下,壳体的第二部分可以包括多个发射器或传感器,多个发射器或传感器被配置成便于在AR/VR环境内的三维空间中跟踪触控笔设备。
  • 一种基于图像识别的手势交互AR投影方法及装置-201910909648.3
  • 赵亚丁;伍永豪;彭泉;曾贵平 - 苏州联游信息技术有限公司
  • 2019-09-25 - 2020-02-14 - G06F3/01
  • 本发明涉及AR投影技术领域,公开了一种基于图像识别的手势交互AR投影方法,包括以下步骤:从3D模型图像库中获取待显示3D模型图像并进行投影显示;采集用户手势视频,并从所述用户手势视频中依次抽取多张用户手势图像;分别提取每一所述用户手势图像中的手势轮廓,根据所述手势轮廓生成手势矢量;根据多张所述用户手势图像的手势矢量生成手势运动信息,根据所述手势运动信息控制所述3D模型图像运动。本发明具有手势交互实时性高的技术效果。
  • 可穿戴无线HMI装置-201910949334.6
  • 罗希特·塞思 - 罗希特·塞思
  • 2015-12-08 - 2020-02-14 - G06F3/01
  • 本发明涉及可穿戴无线HMI装置。一种基于用户提供的手势来控制可控装置的可穿戴手势控制接口设备。所述可穿戴手势控制接口设备包括:(i)传感器,所述传感器被配置为检测用户取向和移动并且生成对应的传感器数据;以及(ii)微控制器,所述微控制器被配置为采样来自所述传感器的传感器数据,判定来自所述传感器之一的传感器数据是否满足传输判据,并且如果所述传感器数据满足所述传输判据则把与全部所述传感器对应的控制数据传输至所述可控装置。
  • 一种穿戴式手势解析系统-201910972003.4
  • 周凡渝 - 无锡益碧医疗科技有限公司
  • 2019-10-14 - 2020-02-14 - G06F3/01
  • 本发明公开了一种穿戴式手势解析系统,涉及手势识别领域,其包括主控模块、手臂驱动电路、机械手臂、多路表面电极模块、数据手套模块,所述主控模块包括分类器训练模块、手势识别模块、信号处理模块、个体参数微调模块、运控控制模块,所述表面电极模块与所述信号处理模块电连接,所述信号处理模块、所述分类器训练模块、所述个体参数微调模块均与所述手势识别模块电连接,所述手势识别模块与所述运动控制模块电连接,本方案能够将表面肌电信号与手势建立对应关系,可实时将表面肌电信号转换为对应手势指令,这样能够将解析后的手势指令通过无线方式传输至远端,也可将手势指令翻译为机械手控制指令,实现表面肌电信号控制机械手的精细化动作。
  • 基于深度相机的眼控辅助输入方法-201910996250.8
  • 李天军;宋红伟;杨敏玲;陈胜勇 - 天津理工大学
  • 2019-10-18 - 2020-02-14 - G06F3/01
  • 本发明公开了一种基于深度相机的眼控辅助输入方法,该方法可以根据人的眼球以及眼部特征确定视线的方向以及视线与屏幕注视点的坐标,得到用户所要输入的内容,能够在眼睛注视选择的过程中就选中需要的字词,直接敲击空格键便可以实现录入,这样省去了鼠标的移动选择或者数字键的点击,提升了用户使用的便捷程度,提高了人机交互的友好程度。
  • 虚拟机器人的交互方法、装置、电子设备及存储介质-201911007922.4
  • 刘炫鹏 - 深圳追一科技有限公司
  • 2019-10-22 - 2020-02-14 - G06F3/01
  • 本申请公开了一种虚拟机器人的交互方法、装置、电子设备及存储介质。该方法包括:实时获取当前会话进程对应的目标用户的音频数据;根据音频数据,确定目标用户的头部的空间位置;根据空间位置,获取虚拟机器人的头部的姿态调整参数序列,姿态调整参数序列包括多个姿态调整参数;基于姿态调整参数序列,逐步调整虚拟机器人的头部姿态,直至虚拟机器人的头部朝向目标用户,并生成图像序列,图像序列由多帧连续的虚拟机器人的姿态图像构成;根据图像序列,生成并输出包含虚拟机器人的头部姿态变化的交互视频。本申请可根据用户的头部位置动态调整虚拟机器人的头部姿态,使交互视频中的虚拟机器人始终面向用户,提高人机交互的自然度。
  • 基于情景构建的应急演练交互系统及方法-201911042795.1
  • 修文群;齐文光;彭信 - 深圳市城市公共安全技术研究院有限公司
  • 2019-10-30 - 2020-02-14 - G06F3/01
  • 本发明涉及应急演练技术领域,具体涉及一种基于情景构建的应急演练交互系统及方法。该基于情景构建的应急演练交互系统包括:情景构建模块、演练角色模块、感应反馈模块和数据交互模块。本发明的基于情景构建的应急演练交互系统及方法,接收事件信息构建虚拟场景,接收演练角色的演练指令产生操作数据,根据操作数据对虚拟场景中对应虚拟角色的演练内容的场景数据实时更新,演练的选择更加科学灵活,提高了演练的真实度和准确度。
  • 一种虚拟现实终端的数据处理方法和虚拟现实终端-201611263899.1
  • 王远亮 - 维沃移动通信有限公司
  • 2016-12-30 - 2020-02-14 - G06F3/01
  • 本发明实施例提供了一种虚拟现实终端的数据处理方法和虚拟现实终端,所述虚拟现实终端安装有特定应用程序,所述虚拟现实终端包括多个传感器,所述方法包括:运行所述特定应用程序,所述多个传感器测量所述虚拟现实终端在所处三维空间的特征距离参数;依据所述特征距离参数确定所述虚拟现实终端的当前所在的位置。当用户佩戴了所述虚拟现实终端并在某一处建筑物内运行所述游戏类应用程序时,多个传感器测量获取所述虚拟现实终端在所述建筑物三维空间的特征距离参数,因此可以实时定位至用户的位置,实现用户在虚拟现实场景中的准确空间定位。
  • 一种VR设备调节机构-201921422938.7
  • 何升 - 广东轻工职业技术学院
  • 2019-08-29 - 2020-02-14 - G06F3/01
  • 本实用新型公开了一种VR设备调节机构,包括壳体外框,所述壳体外框内部设置有调节机构和空气循环机构;所述调节机构包括双头马达、第一马达轴、第二马达轴、第一螺纹杆、第二螺纹杆、微型电动推杆、第一镜片板、第二镜片板和固定杆;所述壳体外框内部底端中间固定连接有微型电动推杆的一端,所述微型电动推杆的另一端固定连接有双头马达。本实用新型通过壳体外框内的双头马达和微型电动推杆,不但可以同时左右移动两个镜片,而且还可以同时上下移动两个镜片,不仅如此省去了手动调节,提升了壳体外框的可调节性和便捷性,有利于更为实用的使用一种VR设备调节机构。
  • 一种用于虚拟现实体验的方向控制势能力臂-201921440556.7
  • 冯博 - 重庆梦神科技有限公司
  • 2019-08-30 - 2020-02-14 - G06F3/01
  • 本实用新型公开了一种用于虚拟现实体验的方向控制势能力臂,包括力臂本体、第一连接部和第二连接部;第一连接部与力臂本体间设置有第一复位机构,力臂本体与第二连接部间设置有第二复位机构;第二连接部的外端可转动设置有用于连接盔甲的盖板,力臂本体靠近第一连接部端设置有第一测量机构,第二连接部靠近力臂本体端设置有第二测量机构、另一端设置有第三测量机构。本实用新型通过在第一、二、三检测机构中采用旋转电位器,将体验者前进后退、左右、下蹲的动作线性地传递给控制系统,中间不存在真空距离,从而在虚拟现实的游戏中更能反应体验者的实时状态。
  • 用于在虚拟世界环境中显示图像的系统和方法-201780092589.4
  • 丹尼·罗格里恩 - 托比股份公司
  • 2017-08-21 - 2020-02-14 - G06F3/01
  • 本文中公开一种系统,包括:显示器;至少一个成像装置,用于捕捉用户的至少一部分的至少一个用户图像;确定单元,连接到至少一个成像装置,所述确定单元用于基于至少一个用户图像而确定与用户的眼睛相关的信息。所述系统还包括:场景渲染器,连接到显示器和确定单元,场景渲染器用于在显示器上生成第一图像,因此场景渲染器被配置成基于与用户的眼睛相关的信息而在用户没有注意的情况下实时地生成相对于第一图像至少部分经修改的图像。
  • 时间抗混叠的中央凹自适应-201880041205.0
  • C.霍;A.扬;J.R.斯塔福德 - 索尼互动娱乐股份有限公司
  • 2018-06-07 - 2020-02-14 - G06F3/01
  • 提供了用于在中央凹渲染的呈现内能够进行时间抗混叠的中央凹自适应的方法和系统。提供了一种用于在头戴式显示器(HMD)内用抗混叠渲染多分辨率场景的方法。所述方法包括用于渲染包括一系列视频帧的场景的操作。所述方法还包括以下操作:使用第一抖动偏移将抗混叠应用于所述场景的第一区域,以及使用第二抖动偏移将抗混叠应用于所述场景的第二区域。此外,所述方法提供用于生成包括所述第一区域和所述第二区域的中央凹场景,以及用于发送所述中央凹场景以显示在与所述HMD相关联的显示器上,其中根据某些实施方案,所述第一区域与比所述第二场景更高的分辨率相关联并且所述第一抖动偏移小于所述第二抖动偏移。
  • 用于计算机媒介现实的显示设备-201880042916.X
  • H·J·门希;J·W·海尔米格 - 通快光子元件有限公司
  • 2018-06-26 - 2020-02-14 - G06F3/01
  • 本发明涉及一种显示设备(100),其中,所述显示设备(100)被设置为能够耦接到可移动对象(20),所述显示设备(100)包括:至少一个第一激光传感器模块(121),其中,第一激光传感器模块(121)被设置为能够借助于自混合干涉测量确定可移动对象相对于参考对象(10、180)的移动;显示装置(110),其用于显示视野(152),其中,显示装置(110)被设置为能够根据确定的可移动对象(20)的移动将至少一个虚拟对象整合到所述视野(152)中。本发明还涉及一种提供包括至少一个虚拟对象的图像的方法。本发明最后涉及一种对应的计算机程序载体。
  • 一种基于空间定位以及手指点击的输入系统-201910842233.9
  • 翁冬冬;江海燕;胡翔;王聪 - 北京理工大学
  • 2019-09-06 - 2020-02-11 - G06F3/01
  • 本发明公开了一种基于空间定位以及手指点击的输入系统,属于虚拟现实技术领域,能在进行有效的文字输入的同时,又能保证输入的准确性和便捷性。该系统包括触碰检测模块、手部空间定位模块、数据处理模块以及显示模块。触碰检测模块用于检测用户手指的触碰动作数据。手部空间定位模块用于检测用户手部空间位置数据。数据处理模块获取用户手指的触碰动作数据以及用户手部空间位置数据,根据预先设定的用户手指的触碰动作数据和、或用户手部空间位置数据与输入字符的对应关系确定输入字符。显示模块用于接收输入字符,采用设定的输入法生成输入结果图像,并将输入结果图像渲染在虚拟环境中进行显示。
  • 一种用于虚拟现实的文本输入系统-201910850634.9
  • 翁冬冬;江海燕;胡翔;王聪 - 北京理工大学;南昌虚拟现实检测技术有限公司;南昌新世纪会展中心有限公司
  • 2019-09-10 - 2020-02-11 - G06F3/01
  • 本发明公开了一种用于虚拟现实的文本输入系统,属于虚拟现实技术领域,能够采用头戴式显示器的配件即手柄,实现虚拟现实场景中有效、快速和便捷的文本输入。本发明的技术方案为:一种用于虚拟现实的文本输入系统,包括头戴式显示器以及至少一个手柄。手柄具备至少一个输入部;输入部划分为设定数量的字符区域;每个字符区域对应设定数量的输入字符;每个字符区域对应的输入字符不相同。字符区域在被触发时向头戴式显示器输入对应的输入字符。头戴式显示器接收输入信号,采用设定的输入法生成输入字符结果图像,并将输入结果图像渲染在虚拟环境中进行显示。
  • 一种基于雷达的手势交互AR投影方法及装置-201910909647.9
  • 赵亚丁;伍永豪;彭泉;曾贵平 - 苏州联游信息技术有限公司
  • 2019-09-25 - 2020-02-11 - G06F3/01
  • 本发明涉及AR投影技术领域,公开了一种基于雷达的手势交互AR投影方法,包括以下步骤:接收被手部反射的电磁波,根据反射电磁波获取手部的位置信息;根据所述位置信息对手部进行对焦调整,然后采集手部的手势视频;结合所述手势视频以及对焦区域进行手势识别,从虚拟模型库中获取与手势相对应的虚拟模型;将虚拟模型与实物模型进行叠加得到混合模型,对所述混合模型进行投影显示。本发明具有对手势图像的拍摄背景、拍摄距离以及拍摄角度要求低,手势识别精度高的技术效果。
  • 基于柔性手套的人机交互系统及方法-201910957400.4
  • 王凤霞;章云霖;孙立宁 - 苏州大学
  • 2019-10-11 - 2020-02-11 - G06F3/01
  • 本发明公开了一种基于柔性手套的人机交互系统及方法,所述系统包括:柔性手套,包括手掌及若干指关节,所述指关节之间设有若干柔性传感器;数据采集模块,用于采集柔性传感器的电压信号;数据处理模块,用于对柔性传感器的形变信号进行滤波、放大和降噪处理后输出电压信号;数据判别模块,用于对电压信号进行判别,将不同的电压信号转变为对应的人机交互控制指令。本发明提供的人机交互系统具有制备方法简单、生物兼容性强、能耗低、制备成本低和程序逻辑信息易于编写等优势,且具备柔性、可拉伸等特性,在未来的人机交互领域具有广泛的应用前景。
  • ERP企业信息管理和全景VR结合系统-201910978045.9
  • 胡庆庆;许林英 - 天津大学
  • 2019-10-15 - 2020-02-11 - G06F3/01
  • 本发明公开了一种ERP企业信息管理和全景VR结合系统,包括生产设备管理模块、生产计划模块、仓库模块、VR动态展示模块;生产设备管理模块,包含有仪表盘模型,仪表盘用来显示显示生产设备的各项数据指标;生产计划模块,就是先创建生产计划,然后审核生产计划,最后执行生产计划;仓库模块涉及了商品的采购和销售、采购需要入库、销售需要出库,此模块主要是提供各个仓库的商品数量、仓库空间;VR动态展示模块包括热点、场景、谷歌定位。本发明将ERP系统中的仓库信息、生产设备信息、生产执行计划动态实时的展示在VR全景中。
  • 基于注视点估计的眼控辅助输入方法-201910994815.9
  • 李天军;宋红伟;杨敏玲;陈胜勇 - 天津理工大学
  • 2019-10-18 - 2020-02-11 - G06F3/01
  • 本发明公开了一种基于注视点估计的眼控辅助输入方法,该方法可以根据人的眼球以及眼部特征确定视线的方向以及视线与屏幕注视点的坐标,从而得到用户所要输入的内容,该方法能够在眼睛注视选择的过程当中就可以选中需要的字词,直接敲击空格键便可以实现录入,这样省去了鼠标的移动选择或者数字键的点击的过程,提升了用户使用的便捷程度,提高了人机交互的友好程度。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top