[发明专利]一种基于侧脸照片进行人脸三维重建的方法在审
| 申请号: | 202111493727.4 | 申请日: | 2021-12-08 |
| 公开(公告)号: | CN113989444A | 公开(公告)日: | 2022-01-28 |
| 发明(设计)人: | 齐越;蔡锦康;赵大鹏 | 申请(专利权)人: | 北京航空航天大学 |
| 主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T15/00;G06T15/04;G06V40/16;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 北京唯智勤实知识产权代理事务所(普通合伙) 11557 | 代理人: | 孙姣 |
| 地址: | 100191*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 照片 进行 三维重建 方法 | ||
1.一种基于侧脸照片进行人脸三维重建的方法,包括:
S1:使用人脸形状恢复网络,基于二维侧脸图生成三维人脸形状;
S2:使用正脸生成网络,基于二维侧脸图生成二维正脸图;
S3:使用纹理生成网络,基于二维正脸图生成二维人脸纹理;
S4:通过二维坐标UV投影法把S3中得到的二维人脸纹理贴到S1中得到的三维人脸形状上,得到三维人脸模型。
2.根据权利要求1所述的方法,其中,所述人脸形状恢复网络为卷积神经网络,该卷积神经网络共分为三个分支网络流,其中:
第一个分支网络流的输入为三维人脸基本参数Oc和皮肤注意力图,该皮肤注意力图为二值图像,人脸区域的灰度值为1,非人脸区域的灰度值为0,三维人脸形状基本参数Oc=[f,R,t2d,αid,αexp]T,其中,Oc表示三维人脸形状基本参数,f表示缩放比例系数,R表示旋转矩阵,t2d表示平移矩阵,αid表示人脸身份参数,αexp表示人脸表情参数,[ ]T表示转置矩阵;
第二个分支网络的输入为三维人脸基本参数Oc和人脸锚点图;
第三个分支网络的输入为三维人脸形状基本参数Oc和投影归一坐标编码PNCC。
3.根据权利要求2所述的方法,其中,所述人脸形状恢复网络在训练过程中涉及的损失函数包括:
距离值损失函数,其中,距离值损失函数用于衡量真实三维人脸形状基本参数和三个分支网络汇总输出的参数更新值之间的差异值,距离值损失函数利用以下公式表示:
Eite=||ΔO-(Og-O0)||2,
其中,Eite表示距离值损失函数,ΔO表示参数更新值,Og表示用于深度学习的训练数据集中的真值,O0表示初始值,随机选取O0的取值,|| ||2表示范数的平方;
顶点距离损失函数:
Ever=||V2d(O0+ΔO)-(Og)||2,
其中,Ever表示顶点距离损失函数,V2d表示投影函数,所述投影函数将三维人脸模型转换到二维人脸图,O0表示初始值,随机选取O0的取值,ΔO表示参数更新值,Og表示用于深度学习的训练数据集中的真值,|| ||2表示范数的平方;
加权参数迭代距离损失函数:
Ewei=(ΔO-(Og-O0))T×diag(w)×(ΔO-(Og-O0)),
其中,Ewei表示加权参数迭代距离损失函数,ΔO表示参数更新值,Og表示用于深度学习的训练数据集中的真值,O0表示初始值,随机选取O0的取值,()T表示转置,diag()表示对角矩阵,w表示参数权重向量,其中:
其中,w表示参数权重向量,w1表示第1项参数的权重向量,w2表示第2项参数的权重向量,i表示序号,wi表示第i项参数的权重向量,p表示参数的数量,wp表示第p项参数的权重向量,V2d为投影函数,Ode为迭代参数,Ode,i表示第i个迭代参数,所述第i个迭代参数来自于被预测参数(O0+ΔO),而其它参数均为用于深度学习的训练数据集中的真值Og,O0表示初始值,随机选取O0的取值,ΔO表示参数更新值,Og表示用于深度学习的训练数据集中的真值,||V2d(Ode,i)-V2d(Og)||表示由于对第i个模型参数的错误预测而造成的对齐误差,所述对齐误差体现所述第i个模型参数的重要程度,R表示常数且为w在相关维度上的最大值,表示来自深度学习的训练数据集的第1项对应的真值,表示来自深度学习的训练数据集的第i-1项对应的真值表示来自深度学习的训练数据集的第i+1项对应的真值,k表示参数数量,表示来自深度学习的训练数据集的第k项对应的真值;
总体损失函数使用以下加权和表示:
Eshape=0.85Eite+1.2Ever+1.7Ewei,
其中,Eshape表示总体损失函数,Eite表示距离值损失函数,Ever表示顶点距离损失函数,Ewei表示加权参数迭代距离损失函数。
4.根据权利要求3所述的方法,其中,所述正脸生成网络为对抗生成网络,所述纹理生成网络为残差网络,所述纹理生成网络在训练过程中使用的损失函数包括:
特征损失函数:
其中,ξlmk表示特征损失函数,N表示用于计算损失的总层数,n表示序号,表示图像特征点数据集中的数据,表示使用特征点检测网络检测到的人脸图像特征点,|| ||2表示2范数,表示2范数的平方;
像素级精度损失函数:
其中,ξpix表示像素级精度损失函数,x表示像素的序列值,M表示通过连接特征点得到的重投影人脸区域,Px表示注意力系数,Px根据下式得到:
其中,Ma表示人脸区域,Ifron为输入的正面人脸图像,表示输入的正面人脸图像的第x个像素值,Iy表示输出的渲染人脸图像,表示输出的渲染人脸图像的第x个像素值;
正则化损失函数:
其中,ξreg表示正则化损失函数,wα表示系数,wβ表示系数,wa=1.0,wβ=1.75e-3,e表示自然对数的底数,表示人脸三维模型协方差矩阵的特征值,表示人脸三维模型协方差矩阵的特征值,|| ||2表示范数的平方;
面部特征级损失函数:
其中,ξff表示面部特征级损失函数,,表示内积,G( )表示根据人脸识别算法FaceNet得到的特征抽取函数,Ifron表示输入的正面人脸图像,Iy表示输出的渲染人脸图像,|| ||表示范数;
综合损失函数使用以下加权和函数表示:
ξ3D=λ3ξlmk+λ4ξpix+λ5ξreg+λ6ξff,
其中,ξ3D表示综合损失函数,λ3表示系数,λ4表示系数,λ5表示系数,λ6表示系数,λ3=1.6e-3,λ4=1.4,λ5=3.7e-4,λ6=0.5,e表示自然对数的底数,ξlmk表示特征损失函数,ξpix表示像素级精度损失函数,ξreg表示正则化损失函数,ξff表示面部特征级损失函数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京航空航天大学,未经北京航空航天大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111493727.4/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种全液冷发电机组的热负荷精准管理系统
- 下一篇:一种多功能妇产科诊治床





