[发明专利]一种基于单相机的应变片三维坐标获取方法和系统在审
申请号: | 202210917073.1 | 申请日: | 2022-08-01 |
公开(公告)号: | CN115393447A | 公开(公告)日: | 2022-11-25 |
发明(设计)人: | 周书涛;周江帆;张东升;苏志龙;李立欣;巨亚堂;李海波;吴兵;张忠;宫文然;童军;朱仪凡;张伟;韩丽;杨蓉;贾亮;侯传涛;孝春成;王泰然;高魁垠 | 申请(专利权)人: | 北京强度环境研究所 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G06T7/70;G06T3/40;G06T17/00;G06N3/04;G06N3/08 |
代理公司: | 中国航天科技专利中心 11009 | 代理人: | 张欢 |
地址: | 100076*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 相机 应变 三维 坐标 获取 方法 系统 | ||
本发明提供一种基于单相机的应变片三维坐标获取方法和系统,基于单相机多视角测量原理,使用单相机从不同的角度拍摄得到物体表面应变片的图像序列;通过识别和匹配相邻图像的编码点,并采用非线性优化的手段对空间坐标和相机姿态进行联合优化;在相机姿态估计的同时,采用了深度学习算法从拍摄的图像序列中识别和提取应变片的图像坐标,然后使用极限约束进行坐标匹配;最后根据估计的相机姿态和匹配的应变片图像坐标,使用经典的三角测量法计算获得应变片的三维坐标。本发明解决了基于光学编码点的相机姿态估计、基于深度学习技术的应变片图像识别和应变片三维坐标重构等三个方面的技术问题。
技术领域
本发明涉及一种基于单相机的应变片三维坐标获取方法和系统,本发明属于光学三维测量技术领域。
背景技术
在航空航天领域,对大型结构试验件进行变形测量是保证结构设计安全性的重要措施。使用应变片测量试验件的变形是普遍采用的方法。应变片测量属于逐点测量技术,当被测物体过大时,被测区域往往需要粘贴大量的应变片。为了准确获取测点的精确位置,降低仿真计算结果与试验数据的对比偏差,目前技术中应变片的位置不够精确,在进行后续数据对比中精确度不高,需要建立一套精确测量测点位置的三维坐标获取系统,准确地识别出应变片在被测物体上的空间位置。
随着CMOS相机的普遍应用,通过三维成像的方式获取物体的三维形貌成为了一种重要的非接触式全场测量方法。由于单目相机具有结构简单、成本低、操作灵活等特点,使用单目相机来拍摄图像并完成物体三维形貌重建和坐标定位越来越受到关注。测量人员可以通过手持单目相机,对被测物体进行连续成像,即可根据所得到的图像序列来计算物体上目标点的空间坐标。
发明内容
本发明要解决的技术问题:本发明提出了一种基于单相机的应变片三维坐标获取方法和系统,主要解决了基于光学编码点的相机姿态估计、基于深度学习技术的应变片图像识别和应变片三维坐标重构等三个方面的技术问题。
本发明所采用的技术方案是:一种基于单相机的应变片三维坐标获取方法,包括:
标定相机内参,包括焦距、主点和畸变系数;
从拍摄的图像序列中进行编码点检测,得到编码点对应关系;
根据第一二帧中匹配的编码点对应关系,使用八点算法计算前两帧的本质矩阵,使用奇异值分解得到三维旋转矩阵和平移向量,使用三角测量法重构编码点的三维坐标,并将第一帧相机坐标系作为参考坐标系;
采用N点透视算法解算后续每一帧相机相对于参考坐标系的姿态,包括三维旋转向量和平移向量,得到图像序列中每帧相机在参考坐标系下的姿态信息;
使用深度学习方法识别所拍摄图像序列中的应变片;
根据计算得到的每帧相机在参考坐标系下姿态信息,计算得到匹配应变片;
根据计算得到的每帧相机在参考坐标系下姿态信息和匹配应变片,从第一帧开始,采用三角测量算法对相邻两帧图像中匹配到的应变片进行三维重构,得到应变片的三维坐标。
进一步的,所述从拍摄的图像序列中进行编码点检测,包括:
使用15位环形编码点,通过图像二值分割提取环形编码带,进行解码得到编码点的ID;
根据对应的中心定位圆采用灰度重心法得到编码点的图像坐标,相邻图像中具有相同ID的编码点为匹配的编码点对应关系。
进一步的,所述使用深度学习方法识别所拍摄图像序列中的应变片,包括:
采用YOLO模型作为应变片识别模型,按照实际需求将应变片贴在物体表面后,从多角度拍摄若干组图像,并根据数据增强原理扩展样本数量,标注每张图像中的应变片,并按设定的比例随机将数据集分成训练集、验证集和测试集;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京强度环境研究所,未经北京强度环境研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210917073.1/2.html,转载请声明来源钻瓜专利网。