[发明专利]一种适用于单目3D目标检测任务的半监督学习方法有效
申请号: | 202210166805.8 | 申请日: | 2022-02-23 |
公开(公告)号: | CN114581350B | 公开(公告)日: | 2022-11-04 |
发明(设计)人: | 李骏;杨磊;张新钰;王力;吴新刚 | 申请(专利权)人: | 清华大学 |
主分类号: | G06T5/50 | 分类号: | G06T5/50;G06T7/11;G06T7/12;G06T11/40;G06V10/762;G06V10/774 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 张建纲 |
地址: | 100084*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 适用于 目标 检测 任务 监督 学习方法 | ||
本发明公开了一种适用于单目3D目标检测模型的半监督学习方法,所述方法包括:基于标注数据训练初始教师模型,根据得到的教师模型进行面向数据库的伪标签生成和基于合成图像的学生模型训练,将本轮次训练所得到的学生模型作为下一轮次的教师模型,如此迭代进行多轮次训练直至达到训练要求,得到训练好的学生模型即为单目3D目标检测模型;在训练中采用目标边界框位置不确定度估计方法过滤噪声伪标签,进一步提升半监督训练效果。本发明利用额外的无标签数据,有效提升单目3D目标检测相关算法的精度指标;提出了一种目标边界框位置不确定度估计方法,用于有效过滤噪声伪标签,进一步提升半监督学习的训练效果。
技术领域
本发明属于目标检测领域,具体涉及一种通过半监督学习同时利用标注和未标注数据有效提升有监督学习算法性能指标上限,特别涉及一种适用于单目3D目标检测任务的半监督学习方法。
背景技术
单目3D目标检测是自动驾驶环境感知领域的一项重要任务,基于单帧图像实现对周围目标的类别估计和3D边界框回归,低成本的先天优势使其在自动驾驶和机器人领域具备广阔的应用前景和商业价值。近年来,单目3D目标检测引起了学术界和工业界研究人员的广泛关注,大量的新方法被提出,但这些方法均严重依赖于丰富的标记数据的有监督方法。
人工标注数据不仅成本高,而且漫长的标注周期不利于算法的快速迭代与部署,与之相比,原始图像数据更容易实现大规模快速采集。如何同时充分利用标注和未标注数据是减轻算法对标注图像严重依赖,实现低成本快速迭代的一种很有效的方法。
半监督学习可以通过综合应用少量有标签数据和大规模无标签数据来帮助算法突破有监督学习的指标上限。近年来,大量的半监督学习方法被成功运用于分类、2D目标检测和点云3D目标检测任务,但目前还没有专门针对单目3D目标检测任务设计的半监督学习方法。
发明内容
本发明的目的在于克服现有技术缺陷,提出了一种适用于单目3D目标检测任务的半监督学习方法。
为了实现上述目的,本发明提出了一种适用于单目3D目标检测模型的半监督学习方法,所述方法包括:
基于标注数据训练初始教师模型,根据得到的教师模型进行面向数据库的伪标签生成和基于合成图像的学生模型训练,将本轮次训练所得到的学生模型作为下一轮次的教师模型,如此迭代进行多轮次训练直至达到训练要求,得到训练好的学生模型即为单目3D目标检测模型;在训练中采用目标边界框位置不确定度估计方法过滤噪声伪标签,进一步提升半监督训练效果。
作为上述方法的一种改进,所述根据得到的教师模型进行面向数据库的伪标签生成具体包括:
使用教师模型通过类别执行度和边界框位置不确定度筛选高质量伪标签,创建由实例图像块和对应伪标签组成的实例数据库;
筛选不包含任何检测结果的未标注数据作为背景图像,创建背景数据库;
基于实例数据库和背景数据库构建合成图像。
作为上述方法的一种改进,所述基于实例数据库和背景数据库构建合成图像;具体包括:
对实例数据库中的图像块进行预处理实现图像增强;
将预处理后的图像块以贴图方式融合到有标签图像,或将预处理后的图像块以贴图方式融合到来自背景数据集的背景图像。
作为上述方法的一种改进,所述预处理具体包括:
按一定比例剪切实例图像块的水平边框边缘区域和垂直边框边缘区域;
和/或按一定比例用随机颜色填充实例图像块的水平边框边缘区域和垂直边框边缘区域;
和/或将实例图像块与有标签图像之间进行随机权重的加权平均以实现混合;
和/或将实例图像块与背景图片之间进行随机权重的加权平均以实现混合。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学,未经清华大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210166805.8/2.html,转载请声明来源钻瓜专利网。