[发明专利]一种基于稀疏视图的语音驱动人脸合成方法在审
申请号: | 202310372477.1 | 申请日: | 2023-03-30 |
公开(公告)号: | CN116385603A | 公开(公告)日: | 2023-07-04 |
发明(设计)人: | 王好谦;党如静 | 申请(专利权)人: | 清华大学深圳国际研究生院 |
主分类号: | G06T13/20 | 分类号: | G06T13/20;G06T15/08;G06T7/62;G06V20/40;G06V40/20;G06V40/16;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 深圳新创友知识产权代理有限公司 44223 | 代理人: | 王震宇 |
地址: | 518055 广东省深圳市*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 稀疏 视图 语音 驱动 合成 方法 | ||
1.一种基于稀疏视图的语音驱动人脸合成方法,其特征在于,包括如下步骤:
S1:从输入的人脸视频中选取帧作为参考图像,使用特征编码网络从参考图像中提取特征体;
S2:构建语音映射网络,将输入的语音信号映射为3DMM参数;
S3:将所述3DMM参数通过语义映射网络,得到高维运动描述符;
S4:构建变形网络,在运动描述符的引导下对所述特征体进行变形;
S5:构建脸部辐射场,将查询点的五维坐标与变形后的像素对齐的特征向量、运动描述符进行拼接,输入到多层感知机中对体积属性进行预测,经过体渲染得到目标图像。
2.如权利要求1所述的语音驱动人脸合成方法,其特征在于,选取的参考图像帧数为4帧,在每次迭代过程中随机选取。
3.如权利要求1或2所述的语音驱动人脸合成方法,其特征在于,步骤S1中,使用残差神经网络作为所述特征编码网络,进而将每张参考图像的图像信息编码成特征体;通过将特征信息作为神经辐射场的先验条件,进而估计出在稀疏帧输入下的未知视角信息。
4.如权利要求1至3任一项所述的语音驱动人脸合成方法,其特征在于,步骤S2中,所述语音映射网络为长短期记忆网络(LSTM),所述3DMM参数为表情系数以及姿态参数;所述构建语音映射网络,将输入的语音信号映射为3DMM参数,具体通过下式:
其中,at表示从输入语音信号中提取到的第t帧的MFCC特征,E(at)表示对MFCC特征进行编码,L表示长短期记忆网络,ht-1以及ct-1分别表示在t-1时刻的单元格状态和隐藏状态;以及分别表示经过长短期记忆网络预测出的第t帧的表情系数以及面部姿态参数。
5.如权利要求4所述的语音驱动人脸合成方法,其特征在于,所述长短期记忆网络采取窗口机制,固定窗口长度为T,每次迭代输入相邻T帧的MFCC特征序列a,具体为:
a={a1,a2,...,aT}
其中,长短期记忆网络的约束损失Ll由均方差损失Lβ,P以及帧间连续性损失Lc两部分组成:
Ll=Lβ,P+Lc
其中,均方差损失Lβ,P的表达式为:
其中,β和P分别表示由面部捕捉模型估测到的表情系数以及姿态参数基准值,以及分别表示由长短期记忆网络预测到的表情系数以及姿态参数序列;λ1为权重参数;
帧间连续性损失Lc的表达式为:
其中,λ2和λ3为权重参数,T表示长短期记忆网络的窗口长度;以及分别表示t+1时刻的表情系数以及姿态参数预测值;以及分别表示t时刻的表情系数以及姿态参数预测值。
6.如权利要求1至5任一项所述的语音驱动人脸合成方法,其特征在于,步骤S3中,将所述3DMM参数通过语义映射网络,得到高维运动描述符,具体通过下式:
其中,M表示语音映射网络,其结构为多层感知机(MLP);α表示经过面部捕捉模型估计的人脸身份参数;以及分别表示经过长短期记忆网络预测到的表情系数以及姿态参数;表示拼接操作。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳国际研究生院,未经清华大学深圳国际研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310372477.1/1.html,转载请声明来源钻瓜专利网。