[发明专利]一种虚拟装配坐式操作中目视动作识别方法有效
申请号: | 201810256008.2 | 申请日: | 2018-03-27 |
公开(公告)号: | CN108416322B | 公开(公告)日: | 2019-05-17 |
发明(设计)人: | 姜盛乾;于新;李雨洋;张昕莹;王炳辉;陈雪纯;黄卓;徐杨;张开淦 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/20 |
代理公司: | 长春吉大专利代理有限责任公司 22201 | 代理人: | 崔斌 |
地址: | 130012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目视 眼部 视野 中心坐标系 标记物体 虚拟装配 垂直 操作动作 动作识别 目标物体 设备采集 水平平面 旋转状况 移动位置 自动识别 坐式操作 构建 颈部 躯体 体感 骨骼 判定 采集 修正 双手 | ||
本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。
技术领域
本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别的虚拟装配坐式操作中目视动作识别方法。
背景技术
模特值测算方法是根据身体不同部位的表现动作进行时间测定,目视动作是其中的一部分。它规定为看清事物而眼睛移动,每做其中一个动作,都会用E2进行表示。
眼睛是重要的感觉器官,对人们的动作起着导向作用。手在移动时,一般要瞬时看一下物体的位置,以控制手的速度和方向。这种眼睛的动作,一般是在动作之前或动作中进行才给时间值,如读文件、找图的记号,看仪表指针的位置、认真检查或为了进行下一个动作,向其他位置移动视线或调整焦距等。一般作业中,独立地使用眼睛的频率不多。在生产线装配工序和包装工序中,进行包含某种检查因素的作业,一般都是同其他的动作同时进行的,所以需要独立动作,即完成目视动作的同时其他动作停止。现今未有相关技术能自动识别目视动作,以上内容仅为人为识别动作时需要遵守的部分准则。
发明内容
本发明提供了一种用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作的虚拟装配坐式操作中目视动作识别方法。
本发明技术方案结合附图说明如下:
一种虚拟装配坐式操作中目视动作识别方法,该方法包括以下步骤:
步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;
步骤二、设立眼部活动范围,并标记目视物体;
步骤三、确认双手无操作动作;
步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;
步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。
所述的步骤一的具体方法如下:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810256008.2/2.html,转载请声明来源钻瓜专利网。