[发明专利]基于深度学习的精确快速大景深三维重建方法有效
申请号: | 202110646148.2 | 申请日: | 2021-06-10 |
公开(公告)号: | CN113256800B | 公开(公告)日: | 2021-11-26 |
发明(设计)人: | 郑东亮;张奕;于浩天;冮顺奎;张明星;施继玲;王晓颖 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06T7/55;G06N3/04;G06N3/08;G01B11/25 |
代理公司: | 南京苏创专利代理事务所(普通合伙) 32273 | 代理人: | 凤婷 |
地址: | 210094 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 精确 快速 景深 三维重建 方法 | ||
本发明涉及一种基于深度学习的精确快速大景深三维重建方法,属于计算机智能视觉技术领域。包括如下步骤:基于深度学习设计搭建景深拓展卷积神经网络,通过三维测量系统采集待测物体的原始条纹图片,再获取高精度包裹相位,并以此重建三维信息。本发明提出的方法利用设备在固定的焦距下所拍摄的三张不同相移的条纹图像,即可在较大的测量景深内获得高精度的包裹相位。在这一过程中,投影仪和相机所引起的测量误差可被明显降低,仅通过单次拍摄即可在大景深场景下实现高性能的三维重建。
技术领域
本发明涉及一种基于深度学习的精确快速大景深三维重建方法,属于计算机视觉技术领域。
背景技术
基于数字条纹投影(DFP)技术的三维(3D)轮廓术已经被广泛研究,并应用于工业、机器人、医学和许多其他领域。然而,现有方法需要在系统校准后固定焦平面,当目标不在系统的景深(DOF)内时,导致精度降低和工作范围受限。为了扩大光学三维测量系统的工作范围,人们设计了多种方法,主要分为两种:虚拟自由度扩展和真实自由度扩展。虚拟自由度扩展是指增加对镜头模糊的容忍度,包括优化模式频率,估计和补偿模糊效应,以及自适应调整模式。当投影仪和摄像机严重散焦时,由于模式信息的快速退化,虚拟自由度扩展方法通常不能处理大的深度变化。真实自由度扩展是指通过修改相机或投影仪的配置来增加物理自由度。基于改进投影仪光学系统的方法包括多焦点投影、编码孔径投影和焦点扫描投影。这些方法会显著降低光传输效率,或者过于复杂而难以实现。2D自动聚焦成像只需要确保目标在DOF的体积内,并且不知道焦距的精确值,但是对于基于DFP的3D轮廓术来说,精确地知道焦距的任何变化以获得最高精度是至关重要的。因此,传统的2D自动聚焦方法不能直接用于基于DFP技术的高精度三维形状测量。
对于FPP(fringe projection profilometry,条纹投影轮廓术)系统,由于有限的景深,很难测量大深度变化的场景,这容易导致投影仪和摄像机散焦。前者保持所携带的相位不变,但是减少了条纹调制并增加了由随机噪声引起的相位误差,这可以通过暂时增加条纹或过滤光谱来减少。后者使捕获的条纹变得模糊,并在包含边缘、阶梯和突变的区域造成严重的测量误差。
发明内容
发明目的:针对上述现有存在的问题和不足,本发明的目的是提供一种基于深度学习的精确快速大景深三维重建方法,能够在较大的测量景深范围内实现高精度的三维测量,无需多次采样,能够在保证测量精度的同时兼顾测量速度,从而在大景深场景下实现高性能的三维重建。
技术方案:为实现上述发明目的,本发明采用以下技术方案:
一种基于深度学习的精确快速大景深三维重建方法,包括以下步骤:
步骤1:搭建神经网络:设计景深拓展卷积神经网络;
步骤2:基于深度学习训练获得图像模型:取不同景深的若干个物体的模糊相移条纹图像和对应精确相移条纹图像数据进行采集,每个物体选用三个模糊相移条纹图像数据输入步骤1中得到的景深拓展卷积神经网络并进行深度学习训练,将得到的相位数据与精确相移条纹图像的数据对比,若未达到预设精确度则返回景深拓展卷积神经网络进行参数优化,达到预设精确度时,则得出此景深对应的条纹图像模型;
步骤3:多次训练获得模型集:由若干个物体经过步骤2后获得若干组条纹图像模型;
步骤4:待测物体条纹图像采集:通过三维测量系统采集待测物体的三张原始条纹图像;
步骤5:获取高精度包裹相位:将步骤4中采集的待测物体的原始条纹图片代入步骤3中的若干个条纹图像模型中,得到对应的高精确包裹相位;
步骤6:重建三维信息:通过步骤5中得到的高精确包裹相位通过相位恢复、相位展开和三维重建处理后,再对待测物体所处的子景深进行定位,得到重建后三维数据信息。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110646148.2/2.html,转载请声明来源钻瓜专利网。