[发明专利]基于聚集损失深度度量学习的人脸识别方法在审

专利信息
申请号: 201710141763.1 申请日: 2017-03-10
公开(公告)号: CN107103281A 公开(公告)日: 2017-08-29
发明(设计)人: 赖剑煌;黄锐;谢晓华;冯展祥 申请(专利权)人: 中山大学
主分类号: G06K9/00 分类号: G06K9/00;G06K9/62;G06N3/08
代理公司: 广州市华学知识产权代理有限公司44245 代理人: 刘巧霞
地址: 510275 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 基于 聚集 损失 深度 度量 学习 识别 方法
【说明书】:

技术领域

发明涉及生物特征识别、计算机视觉和深度学习等技术领域,具体涉及一种基于聚集损失深度度量学习的人脸识别方法。

背景技术

目前随着互联网技术的快速发展,信息安全受到严重威胁,但另一方面也使得信息安全问题受到日益重视。身份识别是信息安全中一个重要体现,在实际应用中具有重要地位。与传统的身份识别技术相比,生物特征识别技术具有唯一性、持久性、安全性、普遍性和实用性等特点。人脸识别以其直观性、非接触性、易用性等诸多优点,获得了非常广泛的应用。

人脸识别是计算机视觉和模式识别领域最富挑战性的课题之一,目前,人脸识别被广泛应用于商业领域和安防领域。但在一些万级以上非配合用户的监控场景下,现有的人脸识别算法的识别效果并不是很理想。原因是监控环境下的人脸是从动态视频中定位并抓拍的,得到的人脸通常具有分辨率低、模糊、噪声大、特征不明显等特点,同时带有较大的姿态变化、光照变化等问题,大大增大了识别的难度,因此,人脸识别在监控场景下仍具有较大的提升空间。

近年来,随着深度学习的火热,深度度量学习在各种计算机视觉任务中取得了很好的效果。虽然深度度量学习在不同任务中的表现形式不同,但其根本目标都是希望学习一个特征空间,使得同类/相似的样本在空间中的距离尽可能近,异类/不相似的样本在空间中的距离尽可能远。目前,经典的深度度量学习函数主要有对比损失函数(contrastive loss)和三元组损失函数(triplet loss)。然而,这两种损失函数均需要复杂的难例挖掘策略,网络才能较好地收敛,这大大提高了算法的计算复杂度。此外,三元组损失对于锚点的选取非常敏感,若选取了不合适的锚点,网络将往错误的方向优化,这导致网络收敛缓慢。对于对比损失,如果选取的负样本对之间的连线指向第三个类的聚类时,也将使得异类样本之间的距离变小。

为此,研究一种能够克服上述各种缺点的人脸识别方法具有重要的实用价值和研究意义。

发明内容

本发明的目的在于克服现有技术的缺点与不足,提供一种基于聚集损失深度度量学习的人脸识别方法,该方法利用聚类中心的思想,使得同类样本向类中心聚集,不同类的类中心保持较远距离,同时引入关键点池化技术,可充分利用人脸结构信息,有效降低计算复杂度,且在训练样本较少的情况下依然有较高的识别准确率。

本发明的目的通过以下的技术方案实现:基于聚集损失深度度量学习的人脸识别方法,包括如下步骤:

步骤S1,对训练图像进行预处理,得到规格一致的人脸图像作为网络输入;

步骤S2,用预处理过的人脸图像对深度卷积神经网络进行预训练,采用softmax损失作为网络的损失函数,在网络结构方面引入关键点池化(Landmark Pooling)技术,利用人脸结构信息辅助人脸识别,得到预训练的基于关键点池化的深度卷积神经网络模型;

步骤S3,将所有训练图像输入所述预训练的基于关键点池化的深度卷积神经网络模型,计算每个类的初始类中心;

步骤S4,利用深度度量学习函数——聚集损失(Concentrate Loss)对上述预训练的基于关键点池化的深度卷积神经网络进行精调,使得每类样本向类中心聚集,同时增大不同类中心之间的间距,初始类中心由步骤S3所述方法得到;经过反复迭代更新网络参数和类中心,直至网络收敛,人脸识别准确率达到最高,得到最终的深度卷积神经网络模型;

步骤S5,对待识别人脸图像进行预处理,预处理后的图像输入最终的深度卷积神经网络模型以提取高层人脸特征表达,通过比较不同人脸间的相似度得分,实现人脸识别。

优选的,所述步骤S1中,对训练图像进行预处理的步骤如下:运用级联CNN检测器(参考:Zhang K,Zhang Z,Li Z,et al.Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.),对训练图像进行人脸检测和关键点定位,并根据关键点位置进行旋转、缩放、裁剪等操作,得到对齐后的大小统一的人脸图像块,作为网络的输入。

具体的,步骤S2中,所述softmax损失用下式来表达:

其中,m为批尺寸(batchsize)的大小,为第i个样本的深度特征,为最后一个全连接层的权重,为偏置项,d为特征向量的长度,n为训练集的总类别数,yi为样本xi所属的类别,T为矩阵转置符号。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/201710141763.1/2.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top