[发明专利]目标检测模型训练方法、目标检测方法以及电子设备在审
申请号: | 202210111173.5 | 申请日: | 2022-02-07 |
公开(公告)号: | CN114565916A | 公开(公告)日: | 2022-05-31 |
发明(设计)人: | 詹景麟;刘铁军;李仁刚;韩大峰 | 申请(专利权)人: | 苏州浪潮智能科技有限公司 |
主分类号: | G06V20/64 | 分类号: | G06V20/64;G06K9/62;G06V10/774 |
代理公司: | 北京三聚阳光知识产权代理有限公司 11250 | 代理人: | 王娜 |
地址: | 215000 江苏省苏州*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 目标 检测 模型 训练 方法 以及 电子设备 | ||
本发明揭示了一种目标检测模型训练方法、目标检测方法以及电子设备,涉及目标检测领域。该方法包括:获取带有标注信息的三维点云数据;标注信息包括至少一个检测对象对应的三维真实边界框信息;将三维点云数据输入至初始检测模型,确定各检测对象对应的三维预测边界框信息;基于各检测对象对应的三维预测边界框信息以及三维真实边界框信息,计算回归损失;基于回归损失,更新初始检测模型的参数,以得到目标检测模型。使用该方法解决了三维目标检测模型训练过程中,损失函数与评估指标不匹配的问题,从而保证了目标检测模型优化方向与目标检测准确率提升的最终目标达成完全一致,提高了目标检测模型的性能。
技术领域
本发明涉及目标检测领域,具体涉及一种目标检测模型训练方法、装置、电子设备及计算机可读存储介质。
背景技术
目标检测作为人工智能领域、计算机视觉方向长期以来最经典的问题,相关技术被广泛应用于安全、军事、交通、医疗等各个领域。相比于二维目标检测技术,目前基于深度相机、激光点云数据、双目视觉等技术的三维目标检测才刚起步。一方面,深度学习算法的发展主要是由数据驱动的,三维数据采集成本高、难度大,严重阻碍相关领域的研究。另一方面,受传感器的限制,采集所得的三维数据一般具有不规则的特征,使得基于二维数据研发的算法难以进行直接迁移。而现实环境中,所有物体都处于三维空间,对深度信息检测的缺失会极大限制AI技术的实际应用。人工智能时代的到来,“元宇宙”概念的实现,虚拟现实、增强现实技术的发展,泛机器人领域(包括自动驾驶、人形机器人、狗形机器人)的研究,智能制造技术的进步等,都依赖于三维目标检测技术的突破性发展。
在现阶段三维目标检测算法实现过程中,为了利用二维目标检测相关研究成果,常常将三维物体投影至二维平面,计算2D-IoU并应用于三维目标检测算法的各个环节。该过程造成的几何信息丢失,也会对三维目标检测模型的预测准确率造成一定影响。
相关模型训练中,存在损失函数定义和评估指标不匹配的问题,模型优化方向无法与目标检测准确率提升的最终目标达成完全一致,极大限制了现阶段相关算法的性能进一步提升。
发明内容
有鉴于此,本发明实施例提供了一种目标检测模型训练方法、目标检测方法以及电子设备,旨在解决损失函数定义和评估指标不匹配,导致相关算法的性能无法提升的问题。
根据第一方面,本发明实施例提供了一种目标检测模型训练方法,该方法包括:
获取带有标注信息的三维点云数据;标注信息包括至少一个检测对象对应的三维真实边界框信息;
将三维点云数据输入至初始检测模型,确定各检测对象对应的三维预测边界框信息;
基于各检测对象对应的三维预测边界框信息以及三维真实边界框信息,计算回归损失;
基于回归损失,更新初始检测模型的参数,以得到目标检测模型。
本发明实施例提供的目标检测模型训练方法,获取带有标注信息的三维点云数据,将三维点云数据输入至初始检测模型,确定各检测对象对应的三维预测边界框信息。然后基于各检测对象对应的三维预测边界框信息以及三维真实边界框信息,计算回归损失,从而可以保证计算得到的回归损失的准确性。然后,基于回归损失,更新初始检测模型的参数,以得到目标检测模型,从而保证了训练得到的目标检测模型的准确性。解决了在目标检测模型训练过程中,损失函数与评估指标不匹配的问题,从而保证了目标检测模型优化方向与目标检测准确率提升的最终目标达成完全一致,提高了目标检测模型的性能。
结合第一方面,在第一方面第一实施方式中,基于各检测对象对应的三维预测边界框信息以及三维真实边界框信息,计算回归损失,包括:
根据各检测对象对应的三维预测边界框信息,确定各检测对象对应的预测框;
基于各检测对象对应的三维真实边界框信息,确定真实框;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州浪潮智能科技有限公司,未经苏州浪潮智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210111173.5/2.html,转载请声明来源钻瓜专利网。