[发明专利]一种动态虚拟相机三维成像方法在审
| 申请号: | 202310020640.8 | 申请日: | 2023-03-21 |
| 公开(公告)号: | CN116156146A | 公开(公告)日: | 2023-05-23 |
| 发明(设计)人: | 李安虎;刘兴盛 | 申请(专利权)人: | 同济大学 |
| 主分类号: | H04N13/275 | 分类号: | H04N13/275;G03B35/04;G01B11/24;H04N13/207;H04N13/282 |
| 代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 蔡彭君 |
| 地址: | 200092 *** | 国省代码: | 上海;31 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 动态 虚拟 相机 三维 成像 方法 | ||
本发明涉及一种动态虚拟相机三维成像方法,方法采用动态虚拟相机三维成像系统,方法包括以下步骤:S1、调整动态虚拟相机三维成像系统的位姿和角度,建立工作坐标系,标定相机光心位置,以及相机到分光器件的距离与光学测距装置到分光器件的距离之差;S2、触发相机采集该视角下目标场景的图像信息,得到多视角三维重建结果;S3、记录光学测距装置提供的距离信息,计算三维坐标,生成三维光学基准点集;S4、结合数值拟合方法建立三维重建误差模型,得到修正后的三维图像。与现有技术相比,本发明结合双棱镜转角信息构建高精度光学基准,保证系统集成性的同时提升三维成像的信息可靠性。
技术领域
本发明涉及机器视觉领域,尤其是涉及一种动态虚拟相机三维成像方法。
背景技术
三维视觉成像作为实现目标重建与场景感知的重要途径,在机器人导航、汽车智能驾驶、空天遥感观测等领域得到广泛应用。传统的视觉系统大多依赖两台或多台相机采集的多个不同视角的图像进行三维立体重建,或者利用相机与结构光投影器对目标场景进行主动成像和三维重建。但是,双目或多目立体视觉三维成像技术要求较大和物理尺寸和布置空间;而结构光三维成像技术的视场范围、分辨率以及效率受到投影器性能和编码策略的影响。尤其在较远工作距离条件下,两类技术的三维重建精度都会显著降低,限制着其在许多实际场景中的应用。
以下现有技术给出几种典型的三维视觉成像技术解决方案:
一种单相机结合二维码测量玻璃板不平度的方法CN110276808B,通过单台相机和二维码阵列建立二维图像和三维空间的关系,从而恢复玻璃板的表面形貌并计算其不平整度。这类方法依赖二维码阵列的先验信息,会给系统布置和实施过程增加工作量,而且难以应用在更加复杂的非结构化场景。
一种柔性化三维视觉引导的机器人对位系统及方法CN114248086B,利用投影仪向工件投射编码结构光,再通过工业相机拍摄工件表面的结构光图案,从而得到工件表面形状和位置姿态等信息。这类方法难以兼顾视场范围和空间分辨率,作用距离也比较有限,而且无法获取整个视场范围内的纹理信息。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供的一种大范围、高精度、高效率的动态虚拟相机三维成像方法。
本发明的目的可以通过以下技术方案来实现:
一种动态虚拟相机三维成像方法,方法采用动态虚拟相机三维成像系统,系统包括相机(1)、相机(1)的镜头侧的旋转双棱镜装置(2)和光学测距装置(3),旋转双棱镜装置(2)包括第一旋转棱镜(21)、第二旋转棱镜(22)以及旋转棱镜各自的旋转驱动机构和支撑机构,旋转驱动机构调整旋转双棱镜装置(2)绕光轴方向的角度,相机(1)和旋转双棱镜装置(2)之间装有分光器件(4),分光器件(4)的分光面与系统光轴成预配置的角度,分光器件(4)保证光学测距装置(3)的发射光束偏转到光轴方向上,并且保证相机(1)将通过旋转双棱镜装置(2)之后的外界光线捕获并成像;
基于上述系统,方法包括以下步骤:
S1、调整动态虚拟相机三维成像系统的位姿和角度,并基于调整后的动态虚拟相机三维成像系统建立工作坐标系,标定相机光心位置,以及相机(1)到分光器件(4)的距离与光学测距装置(3)到分光器件(4)的距离之差;
S2、通过控制旋转双棱镜装置(2)的运动规律改变相机(1)的成像视轴指向,在旋转双棱镜装置(2)达到预期位置时触发相机(1)采集该视角下目标场景的图像信息,所述预期位置为多个,获得多个不同视角的图像,并结合动态虚拟相机立体匹配算法和三角测量原理恢复公共视场区域内的三维信息,得到多视角三维重建结果;
S3、触发相机(1)采集该视角下目标场景的图像信息时,记录光学测距装置(3)提供的距离信息,并基于旋转双棱镜装置(2)达到预期位置时的双棱镜转角组合计算三维坐标,生成与不同的视角一一对应的三维光学基准点集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310020640.8/2.html,转载请声明来源钻瓜专利网。





