[发明专利]一种基于主动判别性跨域对齐的低分辨人脸识别方法在审
申请号: | 202010465593.4 | 申请日: | 2020-05-28 |
公开(公告)号: | CN111695456A | 公开(公告)日: | 2020-09-22 |
发明(设计)人: | 张凯兵;郑冬冬;张天歌;李敏奇;景军锋;卢健;陈小改 | 申请(专利权)人: | 西安工程大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06F17/14;G06F17/16;G06F17/18;G06N3/08 |
代理公司: | 西安弘理专利事务所 61214 | 代理人: | 弓长 |
地址: | 710048 陕*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 主动 判别 性跨域 对齐 分辨 识别 方法 | ||
1.一种基于主动判别性跨域对齐的低分辨人脸识别方法,其特征在于,具体按照如下步骤实施:
步骤1,从标准人脸数据集中选取N幅HR人脸图像构成HR图像集,对HR图像集进行平滑下采样处理,生成LR人脸图像集;
步骤2,采用主动学习从LR人脸图像集中挑选源域样本,形成源域样本集,并构造源域样本的类别标签,LR人脸图像集中剩余的LR人脸图像形成目标域样本集;
步骤3,同时减小源域与目标域样本之间的统计分布差异;
步骤4,构造包含源域样本的流形结构、判别信息和标签信息的判别对齐矩;
步骤5,建立源域与目标域样本的线性变换关系;
步骤6,然后根据统计分布差异、判别对齐矩以及线性变换关系构造关于源域与目标域样本变换矩阵的目标函数;
步骤7,求解目标函数,计算源域样本变换矩阵以及目标域样本变换矩阵;
步骤8,将源域与目标域人脸样本变换到公共域子空间,分别得到源域与目标域人脸变换特征,对变换到公共域子空间内的源域与目标域人脸变换特征进行分类,应用最近邻分类器推断出目标域人脸变换特征的类别标签。
2.根据权利要求1所述的一种基于主动判别性跨域对齐的低分辨人脸识别方法,其特征在于,所述步骤1具体为:
从标准人脸数据库中选取N幅高分辨人脸图像构成HR图像集:其中,表示第i幅高分辨人脸图像,对HR图像集经过平滑下采样,生成低分辨的人脸图像集,即就是LR人脸图像集:其中表示第i幅低分辨人脸图像。
3.根据权利要求2所述的一种基于主动判别性跨域对齐的低分辨人脸识别方法,其特征在于,所述标准人脸数据库包括YALE-B、CMU-PIE、UMIST、ORL、FERET和AR人脸库,对HR图像集进行平滑下采样处理,生成LR人脸图像集具体为:
对高分辨率HR图像集:YALE-B和CMU-PIE人脸库分辨率为32×28,UMIST和ORL人脸库分辨率为90×80,FERET人脸库分辨率为40×40,AR人脸库分辨率为140×120,分别经过YALE-B和CMU-PIE人脸库2倍和4倍,UMIST和ORL人脸库5倍和10倍,FERET人脸库4倍和5倍,AR人脸库10倍和20倍的平滑下采样生成低分辨:YALE-B和CMU-PIE人脸库分辨率为16×14和8×7,UMIST和ORL人脸库分辨率为18×16和9×8,FERET人脸库分辨率为10×10和8×8,AR人脸库分辨率为14×12和7×6的LR人脸图像集。
4.根据权利要求3所述的一种基于主动判别性跨域对齐的低分辨人脸识别方法,其特征在于,所述步骤2具体为:
采用主动学习从LR人脸图像集中挑选源域样本xi为第i个源域样本,D表示源域样本中样本的特征维度,nS为源域样本的数目;LR人脸图像集中剩余LR人脸图像作为目标域样本集,XT=XL-XS,xj为第j个目标域样本,nT为目标域样本的数目,nS+nT=N;
其中采用主动学习从LR人脸图像集中挑选源域样本具体为:
步骤2.1,从候选集,即就是LR人脸图像集XL中选择兼顾代表性准则和多样性准则的人脸图像,兼顾代表性准则和多样性准则的函数为:
其中,λ用来平衡样本的代表性准则与多样性准则,为人为设置参数,挑选出的人脸图像放在源域样本集中,源域样本集表示为D表示样本的特征维度,nS为源域样本的数目;
其中,R(xi)为人脸图像样本xi的代表性函数,从LR人脸图像集选择满足代表性准则的人脸图像,Ni为人脸图像样本xi的邻域样本数目,σR表示高斯核宽,ρ为尺度系数,将满足代表性准则的人脸图像样本放入集合S中;
D(xi)表示样本xi的多样性函数,从剩余候选集U=XL-S挑选出满足多样性准则的人脸图像,多样性函数具体为:
步骤2.2,构造源域样本的类别标签列向量:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安工程大学,未经西安工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010465593.4/1.html,转载请声明来源钻瓜专利网。