[发明专利]一种基于多损失深度融合的人脸防伪方法有效
申请号: | 201910526316.7 | 申请日: | 2019-06-18 |
公开(公告)号: | CN110348320B | 公开(公告)日: | 2021-08-17 |
发明(设计)人: | 朱荣;彭冬梅;胡瑞敏;杨敏;刘斯文;赵雅盺 | 申请(专利权)人: | 武汉大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08 |
代理公司: | 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 | 代理人: | 王琪 |
地址: | 430072 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提出了一种基于多损失深度联合的人脸防伪方法,通过采用多个局部的并行网络来学习局部特征和微纹理特征,同时为了进一步较少对噪声的学习,提升对多样数据源的鲁棒性能,采用基于分组LASSO正则来加强局部特征稀疏性约束,对学习到的特征进行稀疏处理,达到对特征进行选择的作用;另外,采用ASPP多尺度全局信息模块的特征进行融合以加强模型契合度。与现有技术相比,本发明从数据集差异出发,考虑算法的泛化能力,在保证分类精度的同时提升了算法模型在不同数据集之间的测试精度。 | ||
搜索关键词: | 一种 基于 损失 深度 融合 防伪 方法 | ||
【主权项】:
1.一种基于多损失深度融合的人脸防伪方法,其特征在于,包括如下步骤:步骤(1),对视频图像进行预处理,截取视频数据中的每一帧作为人脸图像数据集;步骤(2),共享卷积层提取低层图像特征,记输入图像为Ii,用尺度为n×n的卷积核对图像Ii进行卷积处理,其中,图像Ii的输入通道数为3,卷积之后的输出通道数为64;步骤(3),设置标志量flag,当标志量flag为local part时,调用多局部并行网络学习输入图像的局部和微纹理特征;当标志量flag为global part时,调用全局网络并采用ASPP结构进行多尺度特征学习;步骤(4),将学习得到的局部特征与全局特征进行融合,采用Softmax分类器进行分类;步骤(5),计算网络损失,并采用Adam算法进行网络的反向传播训练;步骤(6),输出人脸图像的预测结果Yi。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910526316.7/,转载请声明来源钻瓜专利网。