[发明专利]一种虚拟装配坐式操作中目视动作识别方法有效
申请号: | 201810256008.2 | 申请日: | 2018-03-27 |
公开(公告)号: | CN108416322B | 公开(公告)日: | 2019-05-17 |
发明(设计)人: | 姜盛乾;于新;李雨洋;张昕莹;王炳辉;陈雪纯;黄卓;徐杨;张开淦 | 申请(专利权)人: | 吉林大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/20 |
代理公司: | 长春吉大专利代理有限责任公司 22201 | 代理人: | 崔斌 |
地址: | 130012 吉*** | 国省代码: | 吉林;22 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于体感交互领域,具体的说是一种虚拟装配中目视动作进行自动识别方法。步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别。本发明利用Kinect V2设备采集人体躯体坐标,建立眼部中心坐标系,设立眼部活动范围,通过无操作认定之后,即可根据颈部移动位置、头部旋转求得垂直和水平面上标记物体的视野角度,最后根据度活动范围即可判定目视动作。 | ||
搜索关键词: | 目视 眼部 视野 中心坐标系 标记物体 虚拟装配 垂直 操作动作 动作识别 目标物体 设备采集 水平平面 旋转状况 移动位置 自动识别 坐式操作 构建 颈部 躯体 体感 骨骼 判定 采集 修正 双手 | ||
【主权项】:
1.一种虚拟装配坐式操作中目视动作识别方法,其特征在于,该方法包括以下步骤:步骤一、采集骨骼和眼睛坐标,并构建眼部中心坐标系;步骤二、设立眼部活动范围,并标记目视物体;步骤三、确认双手无操作动作;步骤四、确定各目标物体在垂直和水平面上标记物体的视野角度,再通过头部旋转状况,修正视野角度;步骤五、根据垂直平面视野夹角α和水平平面视野夹角β的数值,对目视动作进行识别;所述的步骤一的具体方法如下:使用者正对Kincet V2左立,并伸直左臂,通过Kinect V2人机交互设备中的深度相机获取采集左眼坐标点A1(x1,y1,z1),右眼坐标点A2(x2,y2,z2),计算双眼中心坐标
采集人体16个骨骼点,包括头、颈A4(x4,y4,z4)、肩中心、左拇指、右拇指、左指尖、右指尖、左手、右手、左手腕、右手腕、左肘A5(x5,y5,z5)、右肘、左肩膀A6(x6,y6,z6)、右肩膀、髋关节中心A7(x7,y7,z7);先做左肘到髋关节中心的相对偏移坐标点A8(x8=x5‑(x6‑x7),y8=y5‑(y6‑y7),z8=z5‑(z6‑z7)),再做A8点到双眼中心坐标A3的相对偏移坐标点A9(x9=x8+(x3‑x7),y9=y8+(y3‑y7),z9=z8+(z3‑z7));选取点A3(x3,y3,z3)、A4(x4,y4,z4)、A9(x9,y9,z9),求得向量
向量
首先构建YOZ平面,此时法向量
可得
其中设B1为(y4‑y3)×(z9‑z4)‑(z4‑z3)×(y9‑y4),B2为(z4‑z3)×(x9‑x4)‑(x4‑x3)×(z9‑z4),B3为(x4‑x3)×(y9‑y4)‑(y4‑y3)×(x9‑x4);YOZ平面法向量即为n1=(B1,B2,B3),平面为B1·(x‑x3)+B2·(y‑y3)+B3·(z‑z3)=0,化简可得YOZ平面B1x+B2y+B3z=B1x3+B2y3+B3z3=C1;同理,选取点A1(x1,y1,z1)、A2(x2,y2,z2)、A9(x9,y9,z9),可求得XOZ平面法向量为n2=(B4,B5,B6),求得XOZ平面B4x+B5y+B6z=B4x3+B5y3+B6z3=C2;同理,选取点A1(x1,y1,z1)、A2(x2,y2,z2)、A4(x4,y4,z4),可求得XOY平面法向量为n3=(B7,B8,B9),求得XOY平面B7x+B8y+B9z=B7x3+B8y3+B9z3=C3;所述的步骤二的具体方法如下:在垂直平面中,视野的范围在视水平线上方60°,下方70°的范围,其中视水平线上下10°为最优视野,定为1级,视水平线下方10°~30°为次优视野,定为2级,视水平线上方10°~60°、30°~70°为一般视野区域,定为3级;在水平面中,视野范围为中心平面左右各的60°范围,其中中心平面左右7.5°为最优视野,定为1级,中心平面左右7.5°~15°为次优视野,定为2级,中心平面左右15°~30°为一般视野区域,定为3级;将所有的目视物体的体心坐标都标记出来,记为bi(Ui,Oi,Pi);所述的步骤三的具体方法如下:采集各骨骼点的实时数据左拇指a1(X1,Y1,Z1)、右拇指a2(X2,Y2,Z2)、左指尖a3(X3,Y3,Z3)、右指尖a4(X4,Y4,Z4)、左手a5(X5,Y5,Z5)、右手a6(X6,Y6,Z6)、左手腕a7(X7,Y7,Z7)、右手腕a8(X8,Y8,Z8),无操作动作需同时满足以下三个要求;要求一、无抓取动作;获取左手至左拇指向量
左手至左指尖向量
右手至右拇指向量
右手至右指尖向量
夹角
无抓取动作要求θ1和θ2均大于30°;要求二、双手不产生移动;左手腕速度V1计算如下:设定Kincet V2每秒采集20次数据,读取任一时刻采集的坐标点a7(X7,Y7,Z7),计算4次之前的数据点与当前数据点的距离l1,用距离除以0.2秒即可得到左手腕速度V1;同理可得右手腕速度V2;当均V1和V2均小于3cm/s时,认为双手均不产生移动;要求三、物体体心远离双手;计算各物体体心坐标bi(Ui,Oi,Pi)与左手a5(X5,Y5,Z5)、右手a6(X6,Y6,Z6)的距离
和
当li,2和li,3均大于25cm,即认为任意物体体心远离双手;三项要求同时满足,即认为开始目视动作;所述的步骤四的具体方法如下:采集实时颈部坐标a9(X9,Y9,Z9),计算平移坐标A10(x10=X9‑x4,y10=Y9‑y4,z10=Z9‑z4),将双眼坐标、中心坐标及平面平移,得到左眼A11(x11=x1+x10,y11=y1+y10,z11=z1+z10)、右眼A12(x12=x2+x10,y12=y2+y10,z12=z2+z10)、双眼中心A13(x13=x3+x10,y13=y3+y10,z13=z3+z10)、平移后YOZ平面B1x+B2y+B3z=C1+x10、平移后XOZ平面B4x+B5y+B6z=C2+y10、平移后XOY平面B7x+B8y+B9z=C3+z10;任一体心坐标bi(Ui,Oi,Pi),对平移后的YOZ平面再次平移距离Ui‑x13,得到B1x+B2y+B3z=C1+x10+Ui‑x13,取平移左眼A11(x11,y11,z11)、平移右眼A12(x12,y12,z12),作直线L1为
联立直线L1和B1x+B2y+B3z=C1+x10+Ui‑x13即可求得交点A14(x14,y14,z14),连接点A14(x14,y14,z14)和体心坐标bi(Ui,Oi,Pi),可得直线L2的方向向量为
平移后XOZ平面的法向量为n2=(B4,B5,B6),按照两向量夹角余弦的坐标表达式,可求得垂直平面视野夹角
如果Oi大于y13,记上偏,反之记下偏,角度为记为负,α=‑α;对平移后的XOZ平面再次平移距离Oi‑y13,得到B4x+B5y+B6z=C2+y10+Oi‑y13,平移颈部坐标A15(x15=x4+x10,y15=y4+y10,z15=z4+z10),取平移颈部A15(x15,y15,z15)、双眼中心A13(x13,y13,z13),作直线L3为
联立直线L3和B4x+B5y+B6z=C2+y10+Oi‑y13即可求得交点A16(x16,y16,z16),连接点A16(x16,y16,z16)和体心坐标bi(Ui,Oi,Pi),可得直线L4的方向向量为
平移后YOZ平面的法向量为n1=(B1,B2,B3),按照两向量夹角余弦的坐标表达式,可求得水平面视野夹角
如果Ui大于x13,记左偏,反之记右偏,角度为记为负,β=‑β;采集此时头部四元素q1=[Wq1 Xq1 Yq1 Zq1]T,计算头部欧拉角为
此时需要调整垂直平面视野夹角α=α+φ1,水平平面视野夹角
所述的步骤五的具体方法如下:根据眼部活动范围,垂直平面的中线设为0度,当α∈(‑10°,10°),定为1级;α∈(‑30°,‑10°],定为2级;α∈[10°,60°]或α∈[‑70°,‑30°],定为3级;其他角度不定级,但是会标记为4;水平面中,中线设为0度,当β∈(‑7.5°,7.5°),定为1级;当β∈(‑15°,‑7.5°]∪[7.5°,15°),定为2级;当β∈(‑30°,‑15°]∪[15°,30°),定为3级;其他角度不定级,但是会标记为4;当双手开始操作时,同时判定垂直平面及水平面的评分等级,取两者的最高级为最终级别,如果为4,即未有标记物体进入视野范围;等级最终是3,认为模特值为2MOD;等级最终是2,认为模特值为4MOD;等级最终是1,认为模特值为6MOD。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于吉林大学,未经吉林大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201810256008.2/,转载请声明来源钻瓜专利网。