[发明专利]一种物体的三维重建方法、装置、电子设备及存储介质有效
申请号: | 202210957630.2 | 申请日: | 2022-08-10 |
公开(公告)号: | CN115294277B | 公开(公告)日: | 2023-04-18 |
发明(设计)人: | 朱鹏飞 | 申请(专利权)人: | 广州沃佳科技有限公司 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T3/00;G06T15/00 |
代理公司: | 成都顶峰专利事务所(普通合伙) 51224 | 代理人: | 王袁辉 |
地址: | 510000 广东省广州市海珠区*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 物体 三维重建 方法 装置 电子设备 存储 介质 | ||
本发明公开了一种物体的三维重建方法、装置、电子设备及存储介质,本发明无需采集物体的深度图像,在三维重建时无需使用3D卷积,同时,也不需要构建网格,因此,本发明相较于基于体素的物品三维重建算法,计算量更小,相比于基于点云的重建方式,设备成本更低,以及相对于基于网格的三维重建算法,误差更小。
技术领域
本发明属于三维重建技术领域,具体涉及一种物体的三维重建方法、装置、电子设备及存储介质。
背景技术
目前,基于图像对物体进行三维重建的主流算法主要分为以下三类:(1)基于体素的三维重建方法,其主要通过建立2D图形到3D体素模型的映射,完成基于体素的单视图/多视图的三维重建;(2)基于点云的三维重建方法,点云作为目前主要的表示三维物体的方式,具有统一的结构,更容易学习,并且点云在几何变换和变形时更容易操作,因为其连接性不需要更新;(3)基于网格的三维重建方法,网格是通过顶点、边和面来描述3D物体的,这正好与图卷积神经网络的三维特征相匹配,因此,网格的表示方法具有轻量、形状细节丰富的特点。
但是,前述三种方法各自存在以下不足,分别为:基于体素的三维重建方法在提升精度时,则需要提升分辨率,而分辨率的增加将大幅增加计算耗时(其是使用3D卷积对体素进行计算,一旦分辨率提高,相当于增加立次方的计算量);点云重建中需要深度摄像头生成深度信息序列,深度摄像头的精度直接影响点云重建效果,设备成本过高;而网格三维重建方法中,网格信息不易与图像信息结合,简单的三维映射或者用图卷积网络来表示三维网格结构容易造成较大的误差;因此,提供一种计算量小、成本低,并且精度较高的三维重建方法迫在眉睫。
发明内容
本发明的目的是提供一种物体的三维重建方法、装置、电子设备及存储介质,用以解决现有技术中所存在的计算量大、成本高以及精度较差的问题。
为了实现上述目的,本发明采用以下技术方案:
第一方面,提供了一种物体的三维重建方法,包括:
获取目标物体在多视角下拍摄的二维图像;
基于所述目标物体,对每张二维图像进行图像配准,得出所述每张二维图像中的各个像素点与所述目标物体的各个部位之间的匹配关系;
对所述每张二维图像中的各个像素点进行三维转换,得到所述每张二维图像中各个像素点对应的3D点云数据,以利用每张二维图像中各个像素点对应的3D点云数据组成所述目标物体的3D点云数据集;
利用所述匹配关系,对3D点云数据集进行数据校正,以得到目标物体的校正点云数据集;
将所述校正点云数据集中的每个校正点云数据映射至每张二维图像中,以基于每个校正点云数据在每张二维图像中对应的二维坐标,得到每个校正点云数据的实际像素值;
利用校正点云数据集和每个校正点云数据的实际像素值,构建得到目标物体的三维模型。
基于上述公开的内容,本发明先获取目标物体在不同视角下的二维图像,然后对每张二维图像进行图像配准,以得到每张二维图像中各个像素点与目标物体上各部位之间的匹配关系,该步骤相当于得到了不同二维图像中用于表征目标物体同一部位的像素点;接着,再将每张二维图像中的各个像素点映射至三维空间中,得到各个像素点对应的3D点云数据,以利用3D点云数据组成3D点云数据集;其次,再利用前述得出的匹配关系,对3D点云数据集进行数据校正,该步骤相当于是对表征同一部位的点云数据进行校正,从而保证基于3D点云数据构建出的模型的准确性,同时,再将校正的点云数据映射至不同的二维图像中,以便基于二维图像中映射的坐标点,来得出校正的点云数据的实际像素值;最后,利用校正点云数据集进行三维重建,并利用每个校正点云数据的实际像素值进行着色,即可构建得到目标物体的三维模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广州沃佳科技有限公司,未经广州沃佳科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210957630.2/2.html,转载请声明来源钻瓜专利网。