[发明专利]一种基于Mask R-CNN的结构位移监测方法在审
| 申请号: | 202111625244.5 | 申请日: | 2021-12-28 |
| 公开(公告)号: | CN114511620A | 公开(公告)日: | 2022-05-17 |
| 发明(设计)人: | 杨浩;徐向阳 | 申请(专利权)人: | 南通大学 |
| 主分类号: | G06T7/70 | 分类号: | G06T7/70;G06T7/80;G06T5/00;G06N3/04;G06N3/08;G01B11/02 |
| 代理公司: | 暂无信息 | 代理人: | 暂无信息 |
| 地址: | 226019 *** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 mask cnn 结构 位移 监测 方法 | ||
本发明涉及结构位移测量技术领域,具体涉及一种基于MaskR‑CNN的结构位移监测方法,包括标志点选取,标志点预训练,目标检测,语义分割及坐标转换等五个步骤。本发明有效的解决了传统结构位移测量方法识别准确度较低、标志点普适性差、标志点配准自动化程度低等缺点,同时有效的提高了检测监控作业的自动化、智能化水平及检测作业效率,并降低了检测作业的施工难度、劳动强度及作业成本。
技术领域
本发明涉及结构位移测量技术领域,具体涉及一种基于Mask R-CNN的结构位移监测方法。
背景技术
常用的自动化监测手段包括自动全站仪、三维激光扫描、摄影测量等方法。其中摄影测量法因具有远距离、非接触、高精度、省时省力、多点监测等的优势而受到科研和工程人员的关注。摄影测量法的应用常分为4个步骤,包括:(1)通过相机标定获得图像坐标和世界坐标的几何关系,即找出图像中每个像素在世界坐标中所代表的实际长度。(2)提取被测结构表面的图像特征,进行后续目标追踪。(3)根据提取的特征选择合适的追踪算法进行计算,得到被测结构上选定目标的位置信息。(4)对比追踪到的位置和初始位置,得到结构在图像中的位移,并运用相机标定信息将图像中的位移信息转换为世界坐标中的实际位移。
迄今为止,土木工程领域中基于计算机视觉的结构位移测量方法基本采用传统目标追踪方法,该方法存在识别准确度较低、标志点普适性差、标志点配准自动化程度低等缺点,因此,基于深度学习的目标追踪方法开始被土木工程结构位移监测领域尝试。
因此,针对这一现状,本申请提出了一种全新的位移监测方法,以克服当前实际工作中存在的不足,满足实际检测作业的需要。
发明内容
针对以上问题,本发明提供了一种基于Mask R-CNN的结构位移监测方法,以解决背景技术存在的问题。
为了实现上述目的,本发明采用的技术方案如下:
一种基于Mask R-CNN的结构位移监测方法,包括以下步骤:
S1、标志点选取,首先对待检测目标物上设置若干标定实际检测标志点,同时在检测计算机系统中对待检测目标物的图纸上设置与标定实际检测标志点对应的标定虚拟检测标志点,然后对标定实际检测标志点和标定虚拟检测标志点位置进行匹配验证,并在完成验证后即可完成标志点选取;
S2、标志点预训练,然后利用监控采样设备对待检测目标物上设置的标定实际检测标志点进行拍照,并将拍照后的图像数据发送至检测计算机系统中,将拍照得到的实际检测标志点与标定虚拟检测标志点位置进行对应验证,并由检测计算机系统利用Mask R-CNN形成对拍照得到的实际检测标志点与虚拟检测标志点位置进行对应验证识别逻辑,然后对验证识别逻辑在不同采样环境下进行迁徙训练学习,从而生成识别检测逻辑模型,即可完成监控采样设备标志点预训练,作业;
S3、目标检测,采用相机标定方式对待检测目标物进行定期检测作业,然后将检测结果带入到S2步骤生成的应验证识别逻辑中,按照应验证识别逻辑对当前检测的实际标志点进行分析识别;
S4、语义分割,S3步骤在对实际标志点进行分析中,首先利用MaskR-CNN算法将标志点在图像中的大致位置自动识别出来,进而通过利用MaskR-CNN语义分割将标志点像素分割出来备用,并对各标志点像素采用双线性内插法进行亚像素处理,即可得到各标志点像素值;
S5、坐标转换,完成S4步骤后,将S4步骤得到的各标志点像素值利用验证识别逻辑计算,得到各标志点在待检测目标物上的实际坐标值,然后将得到的实际坐标值与S1步骤中的标定实际检测标志点间通过验证识别逻辑进行比对计算,即可得到待检测目标物的位置量。
优选地,所述S2步骤中,监控采样设备对实际检测标志点进行拍照时,监控采样设备的采样相机标定针对中心透视及径向畸变两个问题进行相机标定。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南通大学,未经南通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111625244.5/2.html,转载请声明来源钻瓜专利网。





