[发明专利]两阶段多尺度自适应的低分辨率人脸识别方法及应用在审
| 申请号: | 202211223115.8 | 申请日: | 2022-10-08 |
| 公开(公告)号: | CN115588220A | 公开(公告)日: | 2023-01-10 |
| 发明(设计)人: | 王上飞;王海涵 | 申请(专利权)人: | 中国科学技术大学 |
| 主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/82;G06V10/762;G06V10/764;G06N3/04;G06N3/08;G06N20/00 |
| 代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
| 地址: | 230026 安*** | 国省代码: | 安徽;34 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 阶段 尺度 自适应 分辨率 识别 方法 应用 | ||
本发明公开了一种两阶段多尺度自适应的低分辨率人脸识别方法及应用,其步骤包括:1、对高分辨率人脸数据库和真实的低分辨率人脸图像数据库分别进行预处理;2、构建高、低分辨率表征学习网络和动量网络;3、预训练高分辨率表征学习网络;4、使用两阶段的方式训练构建的网络模型,并利用训练好的模型对待测的低分辨率人脸图像进行表征提取。本发明能自适应的接受多种分辨率图像的输入,在真实的低分辨率场景中有着更好的人脸识别效果。
技术领域
本发明涉及计算机视觉技术领域,具体而言是一种两阶段多尺度自适应的低分辨率人脸识别方法及应用。
背景技术
人脸识别作为计算机视觉领域中的一个重要研究课题,近些年得到了充分的研究和注意,在安防、支付和身份核验等领域有着广泛的应用。目前的人脸识别方法针对的是高质量、高分辨率的人脸图像,而在实际应用场景中采集到的人脸图像的质量是不确定的,分辨率是多变的,只有对于低分辨率自适应的人脸识别才能满足实际的需求。
现有的低分辨率人脸识别方法主要分为两类:基于超分辨率的方法和基于子空间对齐的方法。基于超分辨率的方法利用超分辨率技术从低分辨率图像中重建人脸细节,然后将合成的高分辨率图像输入到常规的人脸识别模型中。然而,由于人工合成的高分辨率图像与原始的高分辨率图像之间存在较大的领域差异,基于超分辨率的方法可能会引入噪声,导致人脸识别泛化性能较差。而且这种方法的计算复杂度较高,内存空间的消耗较大,不适合实时部署。基于子空间对齐的方法将来自不同分辨率的表征映射到一个公共子空间,并最小化它们之间的距离。然而,之前的基于子空间对齐的方法主要在输出层进行高分辨率和低分辨率的表征对齐,忽略了中间层的特征图的指导作用和多种低分辨率表征之间的类别相关性,这涉及到人脸的几何细节,而且之前的方法选择随机的低分辨率进行下采样,导致分辨率分布的混乱。
此外,现有的低分辨率人脸识别方法主要在成对的低分辨率和高分辨率图像上进行训练,其中的低分辨率图像是使用高分辨率图像进行线性插值下采样得到,和真实的低分辨率图像有着分布和噪声的差异,所以现有的方法在真实场景下的低分辨率人脸识别的效果较差。
发明内容
本发明为克服现有技术的不足之处,提出一种两阶段多尺度自适应的低分辨率人脸识别方法及应用,以期对多种分辨率图像进行自适应表征提取,从而能提高真实的低分辨率场景中的人脸识别效果。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种两阶段多尺度自适应的低分辨率人脸识别方法的特点是按如下步骤进行:
步骤1、对高分辨率人脸数据库和真实的低分辨率人脸图像数据库分别进行预处理:
步骤1.1、对于高分辨率人脸数据库的预处理:
使用MTCNN神经网络算法对所述高分辨率人脸数据库中的N张高分辨率人脸图像进行人脸检测与矫正,并将尺寸裁剪到输入尺寸,从而得到归一化后的高分辨率人脸图像数据库;
将归一化后的高分辨率人脸图像数据库中的任意一个高分辨率样本记为Ih,其标签的类别记为y,且y∈{1,2,…,Y},Y表示总的类别数,通过双三次插值法对Ih进行下采样,得到四种低分辨率样本后上采样回到原始输入尺寸,从而得到合成的四种低分辨率样本由构成一组合成的人脸图像,从而得到合成的人脸数据库Ds;
步骤1.2、对于真实的低分辨率人脸图像数据库的预处理:
通过双三次插值法将真实的低分辨率人脸图像数据库中的M张图像尺寸裁剪到输入尺寸,并裁剪后的任意一个低分辨率样本记为Irl,其标签的类别为yrl,由{Irl,yrl}构成一组真实的低分辨率人脸图像,从而得到真实的低分辨率人脸图像数据库Dr;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学技术大学,未经中国科学技术大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211223115.8/2.html,转载请声明来源钻瓜专利网。





