[发明专利]一种面向无感场景的人脸识别方法在审
| 申请号: | 202010378421.3 | 申请日: | 2020-05-07 |
| 公开(公告)号: | CN111738059A | 公开(公告)日: | 2020-10-02 |
| 发明(设计)人: | 李翔;李梦婷;印鉴;刘威;余建兴 | 申请(专利权)人: | 中山大学 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
| 地址: | 510275 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 面向 场景 识别 方法 | ||
本发明提供一种面向无感场景的人脸识别方法,该方法先通过对百万数量级的高质量的人脸识别数据的训练,得到人脸高维特征表述的方式,在实际场景中,再通过对上传人脸照片质量可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,识别其真实身份,提高无感场景下的人脸识别率;本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。
技术领域
本发明涉及图像处理算法领域,更具体地,涉及一种面向无感场景的人脸识别方法。
背景技术
人脸识别服务,比如刷脸门禁和刷脸支付等,在人们的日常生活中已经无处不在,可以给用户提供更好的体验。这些都属于有感人脸识别的范畴,需要人主动去配合摄像头去识别。但实际生活中,往往存在不需要人主动配合的场景,比如安全系统下的逃犯识别或者线下零售的客流系统等,摄像头通常设在店门口或者一些必经场所,这样人通过的时候,就可以大概率抓到人脸,通常这种场景下,人不会主动去看摄像头,那么拍到的照片大多数都不是比较正的脸,这样会严重影响人脸的识别准确率。本方法通过对抓拍照片的质量评估,结合高维度特征向量相似度的阈值设置等技术,可以在无感场景下大幅度提高人脸识别的准确率。
通常基于深度学习的人脸识别方法,都是通过训练,把人脸照片映射到一个高纬空间中,每张照片在这个空间中都可以用一个高纬向量来表示,并且在这个空间中,比较相似的照片之间的距离会比较小,不同的人的照片对应的向量的距离会比较大,长的越像,距离就越小。因此只需要设定一个阈值,当向量之间的距离小于这个阈值时,就意味着这两个向量代表的照片是属于同一个人的,也就是识别成功。另一方面,人的脸部特征包含了其身份信息,但角度比价偏的时候,比如俯视、仰视或者左右这种角度拍摄的照片,会大幅度减少其脸部特征的信息,这样就会严重影响到识别的准确率,比如很多人从左右方垂直角度拍的照片,相似度会非常高,这样如果还按照上述方式用一个阈值来判断其身份,就会出现识别错误的情况,所以大多数场景下要求人主动配合去识别才能保证一个合理的识别率。因此,为了提高无感场景的人脸识别率,本发明通过对上传人脸照片质量进行可量化的评估,结合高维特征向量和底库中其他特征向量的相似度,以及灵活动态调整参数阈值的方式,大幅度降低无感场景的误识率。
发明内容
本发明提供一种误识率较低的面向无感场景的人脸识别方法。
为了达到上述技术效果,本发明的技术方案如下:
一种面向无感场景的人脸识别方法,包括以下步骤:
S1:人脸向量计算并匹配底库;
S2:人脸照片质量评估和目标相似度结果判断;
S3:基于S2输出的评估结果,对照片进行不同的后续处理,如果是识别或者注册成功,则还要加入到一个临时队列中,对接下来照片进行宽松阈值的识别判断,从而降低一人由于多张不同角度照片造成识别错误的概率,将不同阶段的结果存储到对应表中。
进一步地,所述步骤S1的中,采用100层的卷积神经网络ResNet作为主干网络,使用百万人脸数据集MS1M进行人脸识别模型的训练,生成一个可以使用的深度人脸模型,这样每张人脸照片都可以生成一个高维度的向量;将得到的向量去人脸底库中进行计算匹配,通过向量计算找到和该向量最近的人脸向量。
进一步地,所述步骤S1的具体过程是:
S11:把通过人脸对齐后的照片以及对应的身份标注输入到100层的卷积神经网络ResNet中进行训练,训练结束后,一张人脸照片经过主干网络的计算,就可以得到一个512维的特征向量;
S12:基于大规模向量检索工具Faiss,匹配最相近的faceId,并输出匹配底库时计算到的分数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010378421.3/2.html,转载请声明来源钻瓜专利网。





