[发明专利]一种目标检测方法、计算机程序产品及电子设备在审
申请号: | 202210613203.2 | 申请日: | 2022-05-31 |
公开(公告)号: | CN115205845A | 公开(公告)日: | 2022-10-18 |
发明(设计)人: | 李彦玮;黎泽明 | 申请(专利权)人: | 北京迈格威科技有限公司 |
主分类号: | G06V20/64 | 分类号: | G06V20/64;G06V10/44;G06V10/80;G06V10/82;G06N3/08 |
代理公司: | 北京超凡宏宇专利代理事务所(特殊普通合伙) 11463 | 代理人: | 董艳芳 |
地址: | 100090 北京*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目标 检测 方法 计算机 程序 产品 电子设备 | ||
本申请提供一种目标检测方法、计算机程序产品及电子设备,应用于计算机视觉领域,其中,目标检测方法包括:获取点云特征以及与其对应的图像特征;将点云特征转换至一体素空间中,得到体素空间中的第一体素特征,以及,将图像特征转换至体素空间中,得到体素空间中的第二体素特征;其中,体素空间的第一坐标系与采集点云特征所对应的点云数据的第一采集设备对应的第二坐标系以及采集图像特征所对应的图像数据的第二采集设备对应的第三坐标系均不同;根据第一体素特征以及第二体素特征进行融合,得到待检测特征,并基于待检测特征对待检测目标进行检测。
技术领域
本申请涉及计算机视觉领域,具体而言,涉及一种目标检测方法、计算机程序产品及电子设备。
背景技术
在现有技术中,针对三维物体检测的多模态统一表示,一般在输入层面进行模态的对齐或在特征的层面进行模态统一。其中,在输入层面进行模态对齐的方法,是将点云或图像映射到其中一种模态作为网络的输入,例如:将图像的像素通过预测的深度投射到空间中,或将点云投射至图像平面作为一种图片输入网络进行处理;而在特征层面进行模态统一的方法,一般是使用预测的深度分布将图像特征投影至空间中并对高度层面压平形成二维的鸟瞰图特征。
但是,在现有技术中,通常直接将在输入端将图像和点云对齐至其中一种模态。对于在输入层面进行模态对齐的方法来说,由于预测的深度准确度不高以及点云直接投射到图片会丧失其自带的三维空间信息等问题,会导致目标检测的准确度较低;而对于在特征层面进行模态统一的方法,会由于深度预测的不准造成同一个位置带有多个高度物体的信息,从而带来同一位置的语义歧义,同样会导致目标检测的准确度较低。
发明内容
本申请实施例的目的在于提供一种目标检测方法、计算机程序产品及电子设备,用以解决现有技术中目标检测的准确度较低的技术问题。
第一方面,本申请实施例提供一种目标检测方法,包括:获取点云特征以及与其对应的图像特征;将所述点云特征转换至一体素空间中,得到所述体素空间中的第一体素特征,以及,将所述图像特征转换至所述体素空间中,得到所述体素空间中的第二体素特征;其中,所述体素空间的第一坐标系与采集所述点云特征所对应的点云数据的第一采集设备对应的第二坐标系以及采集所述图像特征所对应的图像数据的第二采集设备对应的第三坐标系均不同;根据所述第一体素特征以及所述第二体素特征进行融合,得到待检测特征,并基于所述待检测特征对待检测目标进行检测。在上述方案中,在图像模态和点云模态的基础上,提供一个模态独立的体素空间,该体素空间与图像模态与点云模态的坐标系均不同。通过将所获取的点云特征和图像特征分别转换至上述体素空间中,使得点云模态以及图像模态可以在上述体素空间中进行统一的表示,因此,既便于后续特征的交互,又可以提高目标检测的准确度。
在可选的实施方式中,所述将所述图像特征转换至所述体素空间中,得到所述体素空间中的第二体素特征,包括:根据所述图像特征确定每个像素点对应的深度分布;针对所述体素空间中的体素点,将该体素点投射至所述图像特征对应的二维图像坐标系中,得到所述体素点在所述二维图像坐标系中的平面坐标值及深度值;根据所述平面坐标值、所述深度值以及与所述体素点对应的像素点的深度分布得到所述像素点在所述体素空间中的第二体素特征。在上述方案中,由于图像特征中并不包含三维空间中的结构信息,因此,为了将图像特征转换至体素空间中,需要对图像特征进行视图转换。通过上述视图转换的过程,可以建立出图像特征在三维的体素空间中的特征表示,从而使得点云模态以及图像模态可以在上述体素空间中进行统一的表示,以提高目标检测的准确度。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京迈格威科技有限公司,未经北京迈格威科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210613203.2/2.html,转载请声明来源钻瓜专利网。