[发明专利]一种基于深度学习和空间转换网络的多角度人脸识别方法有效
申请号: | 202011095551.2 | 申请日: | 2020-10-14 |
公开(公告)号: | CN112232184B | 公开(公告)日: | 2022-08-26 |
发明(设计)人: | 张晖;赵上辉;赵海涛;孙雁飞;朱洪波 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06V40/16 | 分类号: | G06V40/16;G06V10/774;G06V10/82;G06V10/764;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 柏尚春 |
地址: | 210012 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 空间 转换 网络 角度 识别 方法 | ||
1.一种基于深度学习和空间转换网络的多角度人脸识别方法,其特征在于,包括以下步骤:
(1)构建卷积神经网络模型,改进其损失函数,并用预先获取的图片对模型进行训练;
(2)基于空间转换网络的人脸对齐:利用变换矩阵对预先获取的图片进行数据采集并生成与模板相同角度大小的对应人脸;
(3)基于YOLOV2对人脸进行检测;
步骤(1)所述的损失函数的改进如下:
L-sofmax损失函数表达式如下:
Angular softmax损失函数:
Additive margin softmax损失函数:
改进后的损失函数为:
其中,θi代表权重Wi和特征xi的夹角,m代表角度边缘值,k为常数,取值范围在0到m-1之间,s表示偏移量;
所述步骤(2)实现过程如下:
将大小为H×W×C特征图输入至空间转换网络终的定位网络,经过定位网络的处理后输出向量θ表示变换系数;以输入特征图的任意点为中心,用采样核进行采样,输出的某一个点为某一个规则网络G上的点Gi,其坐标为对于G上的每一个点Gi,都能通过变换矩阵T找到其在输入特征图上的对应点,变换矩阵Tθ为:
变换矩阵Tθ包含了图片变换的角度,缩放和坐标移动的信息。
2.根据权利要求1所述的基于深度学习和空间转换网络的多角度人脸识别方法,其特征在于,步骤(1)所述的卷积神经网络包括卷积层、激活函数层、池化层、BN层、全连接层和softmax损失函数;所述池化层被嵌入到卷积层之间,包括最大池化和平均池化。
3.根据权利要求1所述的基于深度学习和空间转换网络的多角度人脸识别方法,其特征在于,所述步骤(3)包括以下步骤:
(31)将输入图像划分为S×S的单元格,若图像中物体存在于某单元格中,那么该单元格需要检测相应的物体,每个单元格生成B个预测边界框和对应的置信度;
(32)引入BN层和使用高分辨率分类器;
(33)用带有锚点框的卷积和维度聚类:去掉全连接层,用锚点框来预测边界框:首先去除一个池化层,让网络卷积层输出图像的分辨率提高,然后缩减输入层分辨率,用卷积层进行下层采样,固定住最终特征图尺寸,让宽和高都为奇数;
(34)用直接预测的方法对边界框进行预测;
(35)在网络中增加细粒度特征,提升模型对小物体定位的准确性,引入与恒等映射相类似的方法,增加一个pass through层。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011095551.2/1.html,转载请声明来源钻瓜专利网。
- 上一篇:一种基于RT地址的1553B消息接收方法
- 下一篇:一种2.5D电子封装结构