[发明专利]一种目标检测的训练方法、装置及终端设备有效
| 申请号: | 201811557119.3 | 申请日: | 2018-12-19 |
| 公开(公告)号: | CN109657615B | 公开(公告)日: | 2021-11-02 |
| 发明(设计)人: | 曹赟;赵艳丹;曹玮剑;葛彦昊;汪铖杰;李季檩 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
| 主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06N3/08 |
| 代理公司: | 深圳翼盛智成知识产权事务所(普通合伙) 44300 | 代理人: | 黄威 |
| 地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 目标 检测 训练 方法 装置 终端设备 | ||
本发明实施例公开了一种目标检测的训练方法、装置及终端设备,应用于信息处理技术领域。目标检测的训练装置会确定第一训练样本中包括多组样本图像,而每组样本图像中包括原始目标图像或对原始目标图像进行第一变换后的图像,及对原始目标图像进行第二变换后的图像,这样通过初始目标检测模型对多组样本图像中各个样本图像进行目标检测,并计算初始目标检测模型检测各组样本图像的误差,即第一损失函数,再根据第一损失函数训练得到最终的目标检测模型。这样,将初始目标检测模型对每组样本图像中两个样本图像进行检测的误差(即第一损失函数)作为训练的基准,细化了作为训练基准的损失函数,从而使得对目标检测模型的训练更精确。
技术领域
本发明涉及信息处理技术领域,特别涉及一种目标检测的训练方法、装置及终端设备。
背景技术
现在一般都是通过目标检测模型检测图像中的目标位置,例如,通过人脸配准模型来检测人脸图像中具有语义特征的位置点,即人脸五官特征点或人脸关键点,可以应用于多种场景下,比如人脸跟踪的场景,具体地,人脸配准模型根据视频中某一帧图像的人脸关键点预估下一帧图像的人脸位置,从而确定下一帧图像的人脸关键点,达到人脸跟踪的目的。
上述的人脸配准模型是一种机器学习模型,需要在大量的人脸图像中进行人脸关键点的标注后,形成已标注人脸图像,将已标注人脸图像作为训练样本进行训练得到。但是目前在人脸图像中进行人脸关键点的标注并不能做到完全准确,首先,标注完成一帧包含多个(一般为86个)人脸关键点的人脸图像,需要耗费较多的时间,如果让多个人员进行标注,又存在每个人员对标注标准理解不一致的情况,比如,对第29号内眼角点的标注,有些人员标注为上下眼皮的交汇点,有些人员标注为眼珠露出部分的最左侧点等;其次,有些人脸图像可能会出现分辨率不足,以及不同程度的模糊或者噪声等情况,导致无法准确地对人脸关键点进行标注。因此,由于不能在人脸图像中完全准确地标注出人脸关键点,使得训练得到的人脸配准模型也不会准确。
发明内容
本发明实施例提供一种目标检测的训练方法、装置及终端设备,实现了初始目标检测模型对每组样本图像中两个样本图像进行检测的第一损失函数,训练目标检测模型。
本发明实施例第一方面提供一种目标检测的训练方法,包括:
确定初始目标检测模型;
确定第一训练样本,所述第一训练样本包括:多组样本图像及各个样本图像中目标关键点的第一标注信息,其中,每组样本图像包括原始目标图像或对所述原始目标图像进行第一变换后的图像,及对所述原始目标图像进行第二变换后的图像;
通过所述初始目标检测模型分别检测所述多组样本图像中各个样本图像的目标关键点信息;
根据所述各个样本图像的目标关键点信息及所述第一训练样本中的第一标注信息,计算第一损失函数,所述第一损失函数用于指示所述初始目标检测模型检测各组样本图像的误差;
根据所述第一损失函数调整所述初始目标检测模型中的固定参数值,以得到最终的目标检测模型。
本发明实施例第二方面提供一种目标检测的训练装置,包括:
模型确定单元,用于确定初始目标检测模型;
样本确定单元,用于确定第一训练样本,所述第一训练样本包括:多组样本图像及各个样本图像中目标关键点的第一标注信息,其中,每组样本图像包括原始目标图像或对所述原始目标图像进行第一变换后的图像,及对所述原始目标图像进行第二变换后的图像;
检测单元,用于通过所述初始目标检测模型分别检测所述多组样本图像中各个样本图像的目标关键点信息;
函数计算单元,用于根据所述各个样本图像的目标关键点信息及所述第一训练样本中的第一标注信息,计算第一损失函数,所述第一损失函数用于指示所述初始目标检测模型检测各组样本图像的误差;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811557119.3/2.html,转载请声明来源钻瓜专利网。





