[发明专利]一种基于FP-SCGAN模型的妆容风格迁移方法在审
申请号: | 202210488449.1 | 申请日: | 2022-05-06 |
公开(公告)号: | CN114863527A | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 李妹纳;杭丽君;熊攀 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/80;G06N3/04;G06V10/82 |
代理公司: | 浙江永鼎律师事务所 33233 | 代理人: | 金肯晗 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 fp scgan 模型 风格 迁移 方法 | ||
1.一种基于FP-SCGAN模型的妆容风格迁移方法,其特征在于,其FP-SCGAN网络包括PSEnc、FIEnc、MFDec以及马尔可夫判别器,网络的训练在生成器G与判别器D的相互博弈中进行,最终达到动态平衡时网络即收敛,训练具体包括以下步骤:
S10,得到风格特征:将未上妆图像x与已上妆图像y送入FIEnc中,经过特征提取、下采样和残差模块得到待迁移图片的面部特征cx,cy,并将妆容参考图像的关键区域送入PSEnc中,经过预训练VGG19网络进行特征提取以及特征金字塔对特征进行融合,得到风格特征sx,sy;
S20,得到参考妆容图像与待迁移图像融合的特征:将得到的风格特征送入到多层感知器中,使风格特征映射到特征空间,得到风格特征编码codex,codey,将得到的待迁移图片的面部特征以及风格特征编码送入MFDec中通过解码器AdaIN进行特征融合;同时,MFDec的浅层中使用AdaIN来引入特征,经过MFDec网络得到参考妆容图像与待迁移图像融合的特征xy,yx,xx,yy;
S30,优化判别器和生成器:固定生成器G的参数,计算生成器损失,用于优化判别器D,使得判别器D的辨别能力增强,随后进行反向传播,更新判别器参数,共有两个判别器,分别用于判别生成的上妆图像与去妆图像,二者结构上相同;固定判别器D的参数,计算判别器损失,用于优化生成器G,使得生成器G对判别器D的欺骗能力增强;
S40,计算各类损失:包括身份损失,该损失采用生成器重建待迁移图像;妆容损失,该损失引导关键区域妆容的迁移;局部vgg损失,该损失加强对关键区域语义信息的保留;全局vgg损失,该损失保证生成图像与原始图像语义信息相似;
S50,更新生成器参数:同时将xy,yx送入FIEnc中提取内容特征cx,fake,cy,fake;然后,将cx,fake与codex以及cy,fake与codey分别送入到MFDec中得到xrec以及yrec;进一步计算重建损失,该损失引导网络进行整体风格迁移的同时,保留原始图像的基本特征;最后进行反向传播,更新生成器参数。
2.根据权利要求1所述的方法,其特征在于,所述计算生成器损失的公式为:
其中,Ex~X表示未上妆图像的真实概率;Ey~Y表示已上妆图像的真实概率;Ex~X,y~Y表示生成图像的联合概率;Dx(·),Dy(·)表示采样自生成数据的判别器输出;Dx,Dy表示采样自真实数据的判别器输出;G(x,y)为将x以y的妆容为参考进行迁移;G(y,x)为将y以x的妆容为参考进行迁移。
3.根据权利要求1所述的方法,其特征在于,所述计算判别器损失的公式为:
其中,Dx(·),Dy(·)表示采样自生成数据的判别器输出,Ex~X,y~Y表示生成图像的联合概率,G(x,y)为将x以y的妆容为参考进行迁移;G(y,x)为将y以x的妆容为参考进行迁移。
4.根据权利要求1所述的方法,其特征在于,所述身份损失的计算公式为:
Lidt=||G(x,x)-x||1+||G(y,y)-y||1
其中,G(x,x)为将x以x的妆容为参考进行迁移;G(y,y)为将y以y的妆容为参考进行迁移,||·||1为L1损失,即计算真实数据与生成数据之间的绝对误差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210488449.1/1.html,转载请声明来源钻瓜专利网。