[发明专利]基于聚集损失深度度量学习的人脸识别方法在审
申请号: | 201710141763.1 | 申请日: | 2017-03-10 |
公开(公告)号: | CN107103281A | 公开(公告)日: | 2017-08-29 |
发明(设计)人: | 赖剑煌;黄锐;谢晓华;冯展祥 | 申请(专利权)人: | 中山大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08 |
代理公司: | 广州市华学知识产权代理有限公司44245 | 代理人: | 刘巧霞 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 聚集 损失 深度 度量 学习 识别 方法 | ||
1.基于聚集损失深度度量学习的人脸识别方法,其特征在于,包括如下步骤:
步骤S1,对训练图像进行预处理,得到规格一致的人脸图像作为网络输入;
步骤S2,用预处理过的人脸图像对深度卷积神经网络进行预训练,采用softmax损失作为网络的损失函数,在网络结构方面引入关键点池化技术,利用人脸结构信息辅助人脸识别,得到预训练的基于关键点池化的深度卷积神经网络模型;
步骤S3,将所有训练图像输入所述预训练的基于关键点池化的深度卷积神经网络模型,计算每个类的初始类中心;
步骤S4,利用聚集损失这一深度度量学习函数对上述预训练的基于关键点池化的深度卷积神经网络进行精调,使得每类样本向类中心聚集,同时增大不同类中心之间的间距,初始类中心由步骤S3所述方法得到;经过反复迭代更新网络参数和类中心,直至网络收敛,人脸识别准确率达到最高,得到最终的深度卷积神经网络模型;
步骤S5,对待识别人脸图像进行预处理,预处理后的图像输入最终的深度卷积神经网络模型以提取高层人脸特征表达,通过比较不同人脸间的相似度得分,实现人脸识别。
2.根据权利要求1所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,所述步骤S1中,对训练图像进行预处理的步骤如下:运用级联CNN检测器,对训练图像进行人脸检测和关键点定位,并根据关键点位置进行旋转、缩放、裁剪等操作,得到对齐后的大小统一的人脸图像块,作为网络的输入。
3.根据权利要求1所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,步骤S2中,所述softmax损失用下式来表达:
其中,m为批尺寸的大小,为第i个样本的深度特征,为最后一个全连接层的权重,为偏置项,d为特征向量的长度,n为训练集的总类别数,yi为样本xi所属的类别,T为矩阵转置符号。
4.根据权利要求1所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,步骤S2中,所述关键点池化技术的实现方法如下:根据关键点的位置,直接在深度卷积神经网络的输出特征图上完成关键点池化操作,池化出关键点附近区域的局部特征,从而利用人脸结构信息,辅助人脸识别。
5.根据权利要求1所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,步骤S3中,计算初始类中心的步骤是:将所有训练图像输入所述预训练的基于关键点池化的深度卷积神经网络模型,提取对应的人脸特征表达,计算每一类所有样本特征的算数平均值,将该平均值作为该类的初始类中心。
6.根据权利要求5所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,步骤S4中,利用聚集损失这一深度度量学习函数对预训练的模型进行精调的步骤是:
(4-1)将预处理后的图像输入预训练的模型,使用聚集损失作为损失函数,进行参数精调;初始类中心由步骤S3所述方法得到;
(4-2)聚集损失用下式表达:
其中,为类内损失,f(xi)为第i个样本的深度特征,为第yi类的类中心;为类间损失,表示批中第j短的类中心距离,D为欧式距离,λ为异类类中心之间希望满足的间隔;α,β为平衡类内损失和类间损失的参数;
(4-3)根据公式(5)、(6)、(7)、(8)更新网络参数以及类中心:
1(yi=j)为指示函数。
7.根据权利要求1所述的基于聚集损失深度度量学习的人脸识别方法,其特征在于,所述步骤S4中,采用GoogLeNet作为基本网络模型,并整合了关键点池化层,网络的训练采取随机梯度下降法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710141763.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:极地冰盖冻融探测方法
- 下一篇:超高分辨率合成孔径雷达图像分类方法