[发明专利]可360度转身的实时虚拟试衣的实现方法在审
申请号: | 201710631788.X | 申请日: | 2017-07-28 |
公开(公告)号: | CN107481099A | 公开(公告)日: | 2017-12-15 |
发明(设计)人: | 姚俊峰;张晓丽 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06Q30/06 | 分类号: | G06Q30/06;G06T7/11;G06T7/246;G06T7/90;G06T15/00 |
代理公司: | 泉州市文华专利代理有限公司35205 | 代理人: | 戴中生 |
地址: | 362000 福建*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明一种可360度转身的实时虚拟试衣的实现方法,包括一基于Kinect和灰色预测的虚拟试衣系统,提前制作好虚拟人物模型、服装模型、配件模型,将服装模型穿在虚拟人物模型上进行对应绑定,然后再将Kinect获得骨骼关节点数据与虚拟人物模型进行交叉对应绑定,利用椭圆肤色模型的人脸检测来判断人体的前背面,利用灰色预测模型对人体左右胯部关节点的数据变化进行实时预测,结合人脸检测和灰色预测的结果,判断是否需要对控制虚拟人物模型的骨骼关节点数据进行纠正,针对不同情况,利用不同的人体骨骼关节点数据驱动虚拟人物模型运动,本发明可实现360度的试衣体验,用户不仅可以看到正面的试衣效果,也可以看到侧面和背面的试衣效果,实时性好,稳定性强。 | ||
搜索关键词: | 360 转身 实时 虚拟 试衣 实现 方法 | ||
【主权项】:
一种可360度转身的实时虚拟试衣的实现方法,其特征在于:包括一Unity3D开发平台,一基于Kinect和灰色预测的虚拟试衣系统,具体实现步骤如下:步骤1、模型构建、导入和绑定提前制作好虚拟试衣系统中使用的三维虚拟人物模型、服装模型、配件模型,并导入Unity3D开发平台中,将服装模型穿在虚拟人物模型上进行对应绑定,并将虚拟人物模型的身体隐藏起来;步骤2、试衣时,虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,将该骨骼关节点数据与虚拟人物模型进行绑定;步骤3、虚拟试衣系统同时通过Kinect实时捕捉用户的人体彩色图像,通过OpenCV的功能函数实时显示通过Kinect获得人体彩色图像;步骤4、对人体彩色图像进行分割获得人脸头部图像通过索引从步骤2的骨骼关节点数据中获得人体头部关节点位置坐标为HeadPos(x,y,z),将该坐标转换到OpenCV的坐标系中表示为HeadPosCV(CV_x,CV_y),用人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)在人体彩色图像上定位人体头部位置,以人体头部关节点位置坐标HeadPosCV(CV_x,CV_y)为中心,画一个可以把人脸完全标出来的矩形框,将这个矩形框内的图像分割保存下来定义为人脸头部图像;步骤5、人脸肤色检测利用椭圆肤色模型,针对人脸头部图像中的每一个像素点进行色彩空间的转换,转换到YCrCb颜色空间,然后再非线性变换到YCb’Cr’空间,并判断人脸头部图像中的每个像素点是否在椭圆肤色模型的椭圆里,若是,则判定该像素点为肤色像素点,否则,判定该像素点为非肤色像素点;步骤6、对肤色像素点的数量进行统计,计算人脸头部图像中肤色像素点所占的比值,设定一大一小两个阈值,当该比值大于大的阈值时,就判定所采集的图像为人的正面,当该比值小于小的阈值时,就判定所采集的图像为人的背面,当该比值位于该两阈值的区间内时,就判定所采集的图像为人的侧面;步骤7、人体骨骼关节点运动轨迹的预测步骤2中虚拟试衣系统通过Kinect获得用户的骨骼关节点数据,通过索引从上述骨骼关节点数据中得到左右胯部关节点数据,通过灰色模型预测公式计算得到左右胯部关节点三维坐标中深度值的预测值,并将该预测值与Kinect获得的实测数据进行对比,用于识别数据出现突变的时刻,当一边胯部关节点数据出现突变时,则用预测值代替该胯部关节点坐标的深度值,而该胯部关节点坐标的另外两个数据(x,y)保持在数据突变之前的最后一帧Kinect捕获到的关节点坐标的数值,用这样组合起来的关节点坐标数据来控制虚拟人物模型的运动;在左右两侧胯部数据突变之间,对肩部关节点坐标的深度值也用胯部关节点坐标的深度值的预测值进行代替;当检测到左右胯部关节点三维坐标中深度值都产生了突变时,将左边和右边胯部骨骼关节点三维坐标数据进行互换,对Kinect获取到的其他人体左右对称的骨骼关节点数据进行互换,利用互换后的数据驱动虚拟人物模型跟随用户进行旋转;步骤8、利用人脸检测和灰色预测的结果,进行试衣控制(1)当步骤6人脸检测到用户是正面时,虚拟试衣系统判断用户处于正面试衣状态,此时无论步骤7的灰色模型预测公式的结果如何,都用Kinect获取到的骨骼关节点数据进行试衣控制;(2)当步骤6人脸检测到用户是侧面时,虚拟试衣系统判断用户处于侧面试衣状态,当检测到任意一侧胯部关节点数据突变时,则用步骤7的灰色模型预测公式计算得到的深度值的预测值代替原来的胯部骨骼关节点三维坐标中的深度值,利用校正后的数据进行虚拟人物模型的试衣控制,直到检测到另一侧胯部关节点数据也发生了突变,则对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制;(3)当步骤6人脸检测到用户是背面时,虚拟试衣系统判断用户处于背面试衣状态,此时也不考虑灰色模型预测公式的结果,对Kinect捕获到的骨骼关节点数据进行左右互换,用校正后的骨骼关节点数据来对虚拟人物模型进行试衣控制。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710631788.X/,转载请声明来源钻瓜专利网。