[发明专利]脉冲激光测距回波时刻解算方法、系统及终端有效
申请号: | 201910325176.7 | 申请日: | 2019-04-22 |
公开(公告)号: | CN110058254B | 公开(公告)日: | 2022-12-02 |
发明(设计)人: | 胡善江;贺岩;陈卫标 | 申请(专利权)人: | 中国科学院上海光学精密机械研究所 |
主分类号: | G01S17/10 | 分类号: | G01S17/10;G01S7/487 |
代理公司: | 上海恒慧知识产权代理事务所(特殊普通合伙) 31317 | 代理人: | 张宁展 |
地址: | 201800 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 脉冲 激光 测距 回波 时刻 方法 系统 终端 | ||
一种脉冲激光测距回波时刻的解算方法、系统和终端,根据测距场景的目标特性、激光测距机的参数、目标距离、测距角度、数字化精度和噪声水平等各种参数,批量仿真计算产生理论脉冲激光测距全波形数据;按指定宽度截取回波信号波形数据作为训练和测试样本数据,解算分辨率转换为训练和测试样本数据的分类标签值;回波时刻减去主波时刻即获得了测距的飞行时间,从飞行时间就可以计算获得测距值。本发明无需提取回波波形的特征,通过深度学习可以自动识别特征,并组成复杂的特征,利用这些特征完成回波时刻计算,相比实际测量标注,工作量非常小。
技术领域
本发明涉及脉冲激光测距技术领域,特别是一种基于深度学习的脉冲激光测距回波时刻解算方法、系统及终端。
背景技术
脉冲激光测距方法,即飞行时间测量法,测量发射的激光脉冲和从目标返回的回波脉冲之间的飞行时间差,从而可以换算目标距离,因此,影响激光雷达的测距精度的因素主要是时间测量精度和回波信号的时刻鉴别精度。时间测量精度主要由固定的测时电子学精度影响,而时刻鉴别精度受信号回波幅度、动态范围、回波形状等影响较多,特别是远距离激光测距或者复杂环境应用中,由于目标的距离变化范围很大,目标类型种类多,反射率变化范围大,造成信号的动态范围变化很大,例如在激光测深应用中,信号动态范围可以达到5-6个数量级。由于数字化能力所限,目前普遍的数字化的时间分辨率是1ns,如果要获得精确的回波时刻,必须用各种方法进行解算。
对于回波信号的时刻解算方法,常用的有上升沿判别,恒比阈值判别,信号自相关高斯拟合法,高斯拟合法,高斯回波信号分解法等方法。这些方法都取得了比较好的结果,但是都有一定的应用条件要求,比如信号自相关高斯拟合法、高斯拟合和高斯回波信号分解法都要求回波信号是高斯形状,例如在机载激光雷达测绘应用中,地形和反射率变化对激光脉冲信号前后沿影响不同导致回波波形出现严重的不对称性。此外,大多数方法都是提取固定的一些特征,比如,宽度,上升斜率等等,利用这些特征作为判别的依据,在复杂的应用环境下,一旦出现不符合特征的回波数据,就需要重新改进研究新算法,不利于复杂场景的地形测绘。
综上,从现有的时刻解算方法来看,需要一种适用范围广,成本低廉,易于实现的回波时刻解算方法。
目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
为了克服上述现有技术的缺陷,解决脉冲激光测距回波时刻解算普适性的问题,本发明的目的是提供一种基于深度学习的脉冲激光测距回波时刻解算方法、系统及终端,通过该方法、系统及终端,可以低成本、易实现、普适性的完成回波时刻解算。
本发明是通过以下技术方案实现的。
根据本发明的第一个方面,提供了一种脉冲激光测距回波时刻解算方法,基于深度学习,包括以下步骤:
S1,根据激光雷达理论,仿真计算产生脉冲激光测距全波形数据;
S2,从步骤S1产生的全波形数据中截取指定宽度的回波信号波形数据作为训练和测试样本数据,并以相对截取起点时刻的时间差值按所需时刻解算分辨率转换为训练和测试样本数据的分类标签值;
S3,随机选择部分训练和测试样本数据作为训练数据集,其它剩余训练和测试样本数据作为测试数据集,利用训练数据集和测试数据集用深度学习法训练神经网络模型;
S4,在实测的脉冲激光测距的全波形数据中,截取和步骤S2同样宽度的回波信号波形数据做解算对象;
S5,用步骤S3得到神经网络模型对解算对象进行分类,获得解算对象的分类标签;
S6,步骤S5所获得的分类标签即解算对象的回波时刻相对截取起点时刻的时间差值,该差值加上截取起点时刻,即为回波时刻;脉冲激光测距的主波一般很稳定,时刻一般为固定值或者易于解算,该回波时刻减去主波时刻即为飞行时间,从飞行时间就可以计算获得测距值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院上海光学精密机械研究所,未经中国科学院上海光学精密机械研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910325176.7/2.html,转载请声明来源钻瓜专利网。