[发明专利]表情程度预测模型获取方法及装置、存储介质与终端有效
| 申请号: | 201910594664.8 | 申请日: | 2019-07-03 |
| 公开(公告)号: | CN110298329B | 公开(公告)日: | 2021-11-16 |
| 发明(设计)人: | 郭冠军 | 申请(专利权)人: | 北京字节跳动网络技术有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62 |
| 代理公司: | 上海光栅知识产权代理有限公司 31340 | 代理人: | 马雯雯 |
| 地址: | 100041 北京市石景山区*** | 国省代码: | 北京;11 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 表情 程度 预测 模型 获取 方法 装置 存储 介质 终端 | ||
1.一种表情程度预测模型获取方法,其特征在于,包括:
获取样本集合,所述样本集合包括:第一样本与第二样本,所述第一样本为已知表情程度的人脸图像样本,所述第二样本为未知表情程度的人脸图像样本;
根据所述第一样本,获取表情程度与人脸运动编码单元系数之间的映射关系,该映射关系用于表征连续的表情程度与连续的人脸运动编码单元系数之间的映射关系;
利用所述映射关系处理所述第二样本,得到所述样本集合中各人脸图像样本的表情程度;
根据所述样本集合中各人脸图像样本的表情程度,获取表情程度预测模型;
所述根据所述第一样本,获取表情程度与人脸运动编码单元系数之间的映射关系,包括:
通过预设的多个基底向量配置初始系数,得到初始表情图像;
将所述初始表情与所述第一样本进行关键点匹配,得到关键点匹配结果;
利用所述关键点匹配结果对所述初始系数进行调整,使得根据调整后系数得到的表情图像与所述第一样本之间的匹配差异程度最小;
将所述调整后系数作为第一人脸运动编码单元系数;
利用所述第一样本的表情程度与所述第一人脸运动编码单元系数,获取所述映射关系。
2.根据权利要求1所述的方法,其特征在于,所述利用所述第一样本的表情程度与所述第一人脸运动编码单元系数,获取所述映射关系,包括:
对所述第一样本的所述表情程度与所述第一人脸运动编码单元系数进行拟合处理,得到所述映射关系。
3.根据权利要求2所述的方法,其特征在于,所述映射关系为线性关系。
4.根据权利要求1所述的方法,其特征在于,所述利用所述第一样本的表情程度与所述第一人脸运动编码单元系数,获取所述映射关系,包括:
利用所述第一样本的所述表情程度与所述第一人脸运动编码单元系数,对初始映射模型进行训练,得到训练好的映射模型,以作为所述映射关系。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述利用所述映射关系处理所述第二样本,得到所述样本集合中各人脸图像样本的表情程度,包括:
获取所述第二样本的第二人脸运动编码单元系数;
根据所述映射关系,获取所述第二人脸运动编码单元系数对应的表情程度,以作为所述第二样本的表情程度。
6.根据权利要求1所述的方法,其特征在于,所述根据各人脸图像样本的表情程度,获取表情程度预测模型,包括:
利用各人脸图像样本的表情程度,对初始神经网络模型进行训练,得到所述表情程度预测模型;
其中,所述表情程度的输入为人脸图像,输出为表情程度预测结果。
7.根据权利要求1或6所述的方法,其特征在于,所述表情程度预测模型用于预测至少一种人脸表情的表情程度。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取待识别人脸图像;
将所述待识别人脸图像输入所述表情程度预测模型,得到所述表情程度预测模型输出的表情程度预测结果。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京字节跳动网络技术有限公司,未经北京字节跳动网络技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910594664.8/1.html,转载请声明来源钻瓜专利网。





