[发明专利]一种基于多损失深度融合的人脸防伪方法有效

专利信息
申请号: 201910526316.7 申请日: 2019-06-18
公开(公告)号: CN110348320B 公开(公告)日: 2021-08-17
发明(设计)人: 朱荣;彭冬梅;胡瑞敏;杨敏;刘斯文;赵雅盺 申请(专利权)人: 武汉大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62;G06N3/08
代理公司: 武汉科皓知识产权代理事务所(特殊普通合伙) 42222 代理人: 王琪
地址: 430072 湖*** 国省代码: 湖北;42
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提出了一种基于多损失深度联合的人脸防伪方法,通过采用多个局部的并行网络来学习局部特征和微纹理特征,同时为了进一步较少对噪声的学习,提升对多样数据源的鲁棒性能,采用基于分组LASSO正则来加强局部特征稀疏性约束,对学习到的特征进行稀疏处理,达到对特征进行选择的作用;另外,采用ASPP多尺度全局信息模块的特征进行融合以加强模型契合度。与现有技术相比,本发明从数据集差异出发,考虑算法的泛化能力,在保证分类精度的同时提升了算法模型在不同数据集之间的测试精度。
搜索关键词: 一种 基于 损失 深度 融合 防伪 方法
【主权项】:
1.一种基于多损失深度融合的人脸防伪方法,其特征在于,包括如下步骤:步骤(1),对视频图像进行预处理,截取视频数据中的每一帧作为人脸图像数据集;步骤(2),共享卷积层提取低层图像特征,记输入图像为Ii,用尺度为n×n的卷积核对图像Ii进行卷积处理,其中,图像Ii的输入通道数为3,卷积之后的输出通道数为64;步骤(3),设置标志量flag,当标志量flag为local part时,调用多局部并行网络学习输入图像的局部和微纹理特征;当标志量flag为global part时,调用全局网络并采用ASPP结构进行多尺度特征学习;步骤(4),将学习得到的局部特征与全局特征进行融合,采用Softmax分类器进行分类;步骤(5),计算网络损失,并采用Adam算法进行网络的反向传播训练;步骤(6),输出人脸图像的预测结果Yi
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于武汉大学,未经武汉大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201910526316.7/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top