[发明专利]一种人脸关键点检测模块中人脸框选取方法有效
申请号: | 202010987766.9 | 申请日: | 2020-09-18 |
公开(公告)号: | CN112084992B | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 李晋军;瞿洪桂;孙家乐;高云丽 | 申请(专利权)人: | 北京中电兴发科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06K9/32 |
代理公司: | 北京市盛峰律师事务所 11337 | 代理人: | 于国强 |
地址: | 100095 北*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 关键 检测 模块 中人 选取 方法 | ||
1.一种人脸关键点检测模块中人脸框选取方法,其特征在于,包括以下步骤:
S1)获取已训练好的人脸检测模型以及已训练好的关键点模型;
S2)获取人脸关键点训练数据集,所述人脸关键点训练数据集包括训练集和测试数据集,所述训练集包括N张图片,利用已训练好的人脸检测模型获得训练集中N张图片的人脸框坐标,获取训练集中N张图片的真实人脸框坐标,根据所述N张图片的人脸框坐标和所述N张图片的真实人脸框坐标获得人脸框坐标伸缩比例,包括以下步骤:
S21)将N张图片分别输入至所述已训练好的人脸检测模型,所述已训练好的人脸检测模型输出训练集中N张图片的人脸框坐标,第j张图片的人脸框坐标为[det_x1j,det_y1j,det_x2j,det_y2j],j=1、2、...、N;
S22)获取训练集中N张图片的真实人脸框坐标,第j张图片的真实人脸框坐标为[gt_x1j,gt_y1j,gt_x2j,gt_y2j];gt_x1j和gt_x2j分别取第j张图片的关键点坐标中的最小x坐标值和最大x坐标值,gt_y1j和gt_y2j分别取第j张图片的关键点坐标中的最小y坐标值和最大y坐标值;
S23)根据步骤S21)中N张图片的人脸框坐标分别计算N张图片的宽和高,第j张图片的宽wj=det_x2j-det_x1j,第j张图片的高hj=det_y2j-det_y1j;
S24)将步骤S23)中N张图片的宽进行求和后除以训练集的总样本数N,获得N张图片的平均宽度将步骤S23)中N张图片的高进行求和后除以训练集的总样本数N,获得N张图片的平均高度
S25)根据训练集中N张图片的人脸框坐标和真实人脸框坐标获得N张图片的坐标差值,N张图片的坐标差值包括N张图片的第一x坐标差值、N张图片的第一y坐标差值、N张图片的第二x坐标差值、N张图片的第二y坐标差值;第j张图片的第一x坐标差值Δx1j=gt_x1j-det_x1j,第j张图片的第一y坐标差值Δy1j=gt_y1j-det_y1j,第j张图片的第二x坐标差值Δx2j=gt_x2j-det_x2j,第j张图片的第二y坐标差值Δy2j=gt_y2j-det_y2j;
S26)将N张图片的坐标差值分别求和后除以训练集的总样本数N,获得N张图片的平均坐标差值,N张图片的平均坐标差值包括第一x坐标平均差值N张图片的第一y坐标平均差值N张图片的第二x坐标平均差值N张图片的第二y坐标平均差值
S27)将步骤S26)中N张图片的平均坐标差值分别除以步骤S24)中N张图片的平均宽度meanw和N张图片的平均高度meanh,获得人脸框坐标伸缩比例[px1,py1,px2,py2],第一x坐标伸缩比例第一y坐标伸缩比例第二x坐标伸缩比例第二y坐标伸缩比例
S3)将所述测试数据集输入已训练好的人脸检测模型,所述测试数据集包括M张图片,利用人脸框坐标伸缩比例对已训练好的人脸检测模型输出的测试数据集中每张图片的人脸框坐标进行优化,获得测试数据集中每张图片优化后的人脸框坐标;
S4)将测试数据集中第i张图片优化后的人脸框坐标进行坐标转换,获得测试数据集中第i张图片的新的人脸框坐标,根据第i张图片的新的人脸框坐标从第i张图片中裁剪出人脸框,将裁剪的人脸框输入已训练好的关键点模型,获得关键点坐标,i=1、2、...、M。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京中电兴发科技有限公司,未经北京中电兴发科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010987766.9/1.html,转载请声明来源钻瓜专利网。
- 上一篇:基于区块链的NIDTGA用户身份溯源系统
- 下一篇:一种藏汉翻译方法和装置