[发明专利]一种活体检测方法及装置在审
申请号: | 202110073901.3 | 申请日: | 2021-01-20 |
公开(公告)号: | CN112818774A | 公开(公告)日: | 2021-05-18 |
发明(设计)人: | 于文海;祖立军;郭伟;乐旭 | 申请(专利权)人: | 中国银联股份有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/40;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 北京同达信恒知识产权代理有限公司 11291 | 代理人: | 张怀阳 |
地址: | 200135 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 活体 检测 方法 装置 | ||
1.一种活体检测方法,其特征在于,包括:
接收待检测人脸图片;
将所述待检测人脸图片输入至活体检测网络模型,得到活体检测结果;所述活体检测网络模型是通过对样本集中的各样本添加噪声数据后训练得到的,所述样本集包括通过对抗网络生成的负样本。
2.如权利要求1所述的方法,其特征在于,
所述活体检测网络模型是通过对样本集中各样本添加噪声数据后训练得到的,包括:
从所述样本集中获取每轮训练所需的预设数量的样本;
根据上一轮训练的梯度值,确定噪声区间;从所述噪声区间选取第一噪声数据;根据所述梯度值和所述第一噪声数据,确定添加至样本的第二噪声数据;所述噪声区间的任一噪声数据添加至样本后,不影响人眼对样本的识别;
将添加所述第二噪声数据的样本作为校正样本进行训练,从而得到所述活体检测网络模型。
3.如权利要求2所述的方法,其特征在于,
所述根据上一轮训练的梯度值,确定噪声区间,包括:
若为首轮训练或梯度值为零,则确定所述噪声区间为[-b,a],-b+a≈0;若梯度值不为零,则确定所述噪声区间为[-b,0]或者[0,a];
所述根据所述梯度值和所述第一噪声数据,确定添加至样本的第二噪声数据,包括:
若所述梯度值为零,则将所述第一噪声数据添加至样本;
若所述梯度值非零,则根据所述梯度值对所述第一噪声数据进行校正,并将校正后的第一噪声数据添加至样本。
4.如权利要求2所述的方法,其特征在于,
所述将添加所述第二噪声数据的样本作为校正样本进行训练,从而得到所述活体检测网络模型,包括:
确定所述校正样本在不同图像维度下的对照样本;
对所述校正样本和所述对照样本进行训练,从而得到所述活体检测网络模型。
5.如权利要求4所述的方法,其特征在于,
所述不同图像维度包括以下至少一项:
HSV色域图、LBP特征图和归一化特征直方图。
6.如权利要求1-5任一项所述的方法,其特征在于,
所述样本集包括通过对抗网络生成的负样本,包括:
将选取的随机噪声通过生成网络模型生成第一图片;
基于判别网络模型对所述第一图片的分类结果,确定所述判别网络模型在所述第一图片下的第一损失值;
基于所述判别网络模型对真实负样本的分类结果,确定所述判别网络模型在所述真实负样本下的第二损失值;
基于所述第一损失值和所述第二损失值,对所述判别网络模型进行调整;基于所述第一损失值,对所述生成网络模型进行调整,直至所述判别网络模型符合设定要求;
通过所述判别网络模型符合设定要求时对应的生成网络模型,生成仿真负样本并作为所述样本集中的负样本。
7.如权利要求6所述的方法,其特征在于,
所述通过所述判别网络模型符合设定要求时对应的生成网络模型,生成仿真负样本并作为所述样本集中的负样本,包括:
所述判别网络模型符合设定要求是指多个迭代周期中判别网络模型的损失值均符合设定值;
通过所述多个迭代周期中的生成网络模型,生成所述仿真负样本。
8.一种活体检测装置,其特征在于,包括:
接收单元,用于接收待检测人脸图片;
处理单元,用于将所述待检测人脸图片输入至活体检测网络模型,得到活体检测结果;所述活体检测网络模型是通过对样本集中的各样本添加噪声数据后训练得到的,所述样本集包括通过对抗网络生成的负样本。
9.一种计算机设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于调用所述存储器中存储的计算机程序,按照获得的程序执行如权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有程序,当所述程序在计算机上运行时,使得计算机实现执行如权利要求1-7任一项所述的方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国银联股份有限公司,未经中国银联股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110073901.3/1.html,转载请声明来源钻瓜专利网。