[发明专利]基于动态间隔损失函数和概率特征的视频人脸识别方法有效
申请号: | 202010166807.8 | 申请日: | 2020-03-11 |
公开(公告)号: | CN111339988B | 公开(公告)日: | 2023-04-07 |
发明(设计)人: | 柯逍;郑毅腾;朱敏琛 | 申请(专利权)人: | 福州大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/764;G06V10/80;G06V10/82;G06N3/0464;G06N3/048;G06N3/084 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 丘鸿超;蔡学俊 |
地址: | 350108 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动态 间隔 损失 函数 概率 特征 视频 识别 方法 | ||
1.一种基于动态间隔损失函数和概率特征的视频人脸识别方法,其特征在于,包括以下步骤:
步骤S1:通过人脸识别训练集训练人脸识别网络模型;
步骤S2:采用已训练的人脸识别网络模型作为特征提取模型,并通过同一个训练集训练不确定性模块;
步骤S3:利用学习到的不确定性作为特征的重要程度,对输入的视频图像集合进行聚合,得到聚合后的特征;
步骤S4:采用互似然分数对聚合后的特征进行比对,完成最终的识别;
所述步骤S1具体包括以下步骤:
步骤S11:从网络上获取公开的人脸识别训练集,并获得训练数据的相关标注;
步骤S12:对人脸识别训练集中的人脸图像采用预训练的RetinaFace人脸检测模型输出人脸包围框和人脸关键点位置,并应用相似变换进行人脸对齐,对所有输入的人脸图像的像素值减去均值,并进行归一化;
步骤S13:采用18层的ResNet作为用于人脸深度特征提取的人脸识别网络模型,并将其中第一个7×7的卷积核以3个3×3的卷积核代替;同时,将第一个卷积层的步长设为1,使得最后一个特征图的输出大小保持为7×7;此外,将恒等映射所在路径设为步长为2的平均池化接上步长为1的1×1卷积,以防止信息损失;最后,采用大小为7×7的卷积层代替平均池化层,输出最终的人脸深度特征xi;
步骤S14:设D={d1,d2,...,dN}为训练集中的人脸图像,di为第i张人脸图像,E(·)为用于提取深度特征的人脸识别网络模型,xi=E(di)为第i张人脸图像对应的深度特征,将深度特征xi与最后一个全连接层W的第j列作点积,得到第j个类别的分数zi,j,并输入到Softmax激活函数中生成分类概率Pi,j,其计算公式如下:
其中C为总的类别数量,k为不同类别的下标;
步骤S15:设yi为第i张人脸图像对应的标签,为深度特征xi与对应类别权重向量之间的夹角,采用关于的函数曲线中变化率最大的点作为一个基准点,并将该点与相关联,即当设置了第i张人脸图像的动态间隔参数之后,关于的函数曲线在θm处导数的绝对值达到最大,其中θm为使得函数曲线导数最大的基准点,动态间隔参数的计算公式如下:
其中v为对应的缩放参数,用于防止分类概率达不到应有的范围,为除自己类别外,所有其他类别分数的总和;
步骤S16:得到分类概率Pi,j和动态间隔参数之后,使用交叉熵损失函数计算预测得到的分类概率Pi,j与真实概率Qi,j之间的差异并得到损失值LCE(xi),其计算公式如下:
然后利用梯度下降与反向传播算法更新网络参数;
所述步骤S2具体包括以下步骤:
步骤S21:将步骤S1中训练好的人脸识别网络模型作为特征提取模型,在同一个训练集上提取每一张人脸图像的深度特征,输出每一张人脸图像的深度特征对应的最后一个特征图作为不确定性模块的输入;
步骤S22:所述不确定性模块为一个浅层的神经网络模型,其包含两个全连接层,采用Relu作为激活函数,并在全连接层与激活函数之间插入批量归一化层用于输入的归一化操作,最后采用指数函数作为激活函数输出每张人脸图像对应的不确定性,其与深度特征具有相同的维度,表示了特征空间中对应特征的方差;
步骤S23:采用如下的函数计算任意两个样本之间的互似然分数s(xi,xb):
其中和分别表示深度特征xi和不确定性σi的第l个维度上的值,h为人脸特征的维度;
步骤S24:根据一个批次中的人脸图像分布情况,采用如下的函数计算最终的损失Lpair:
其中R是所有同一个人的人脸对集合,s(·,·)为互似然分数的计算函数,其用于计算两个人脸对之间的互似然分数,该损失函数的目标是最大化同一个人的所有人脸对之间的互似然分数值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010166807.8/1.html,转载请声明来源钻瓜专利网。