[发明专利]一种基于机器视觉的多运动目标快速测距方法有效
申请号: | 201710940904.6 | 申请日: | 2017-10-11 |
公开(公告)号: | CN107741231B | 公开(公告)日: | 2020-11-27 |
发明(设计)人: | 吴丽君;吴晓烽;陈志聪;文吉成;林培杰;程树英 | 申请(专利权)人: | 福州大学 |
主分类号: | G01C21/20 | 分类号: | G01C21/20;G06K9/00 |
代理公司: | 福州元创专利商标代理有限公司 35100 | 代理人: | 蔡学俊 |
地址: | 350116 福建省福州市*** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 机器 视觉 运动 目标 快速 测距 方法 | ||
本发明涉及一种基于机器视觉的多运动目标快速测距方法。该方法首先对图像训练集中标注框(Ground Truth Box)与实际距离进行拟合,并保存其测距模型,接着利用实时检测算法SSD(Single Shot MultiBox Detector)对特定目标所产生的检测框(Bounding Box)进行高度提取并输入到测距模型中,从而实时地获取多个目标的测量距离。本发明所提出的多运动目标快速识别及测距方法,能够高效、实时地对特定多个目标进行识别与测距。相较其他ETA测距系统更适合盲人,更加实用,其拥有较好的应用前景以及实际工程的应用价值。
技术领域
本发明涉及一种基于机器视觉的多运动目标快速测距方法。
背景技术
现如今,我国存在七千五百万视障人群,其生活以及出行都因其视力的障碍而受到极大困扰。而帮助盲人的电子行走辅助(ETA,Electronic TravelAids)系统的出现,为盲人带来了极大便利,其中障碍物检测与测距是ETA系统中的关键技术,检测识别准确性和实时性是衡量ETA系统实用性的重要标志,也是亟待解决的难题。
在以往非计算机视觉领域,大多都采用激光、红外、超声波测距的方法。但其测距距离短,波束窄,无法识别障碍物,且只能通过频率区分多个目标,实用度略低。在计算机视觉领域,有ESSVI、NAVI、SoundView等视觉辅助系统,其中具有代表性是上海交大的SoundView,其从摄像头取得图像,然后通过耳机把视觉检测信息通过声音反馈给盲人。但是SoundView是采用给每个物体贴条形码进行检测识别的,并适用于现实应用场景。此外,现有的其它基于机器视觉的ETA系统,在测距时仍然要依赖于额外的测距仪来实现,并且无法同时对多个运动目标测距。针对现有ETA系统的不足,本发明从目标检测算法与回归测距结合这一新的角度,来解决ETA中核心的检测测距模块中的实时性与识别问题。
随着深度学习的出现,神经网络因其具有较好的特征提取功能,而被广泛用在视觉领域,使得目标检测领域不断推陈出新,主要代表的算法有RCNN、faster-RCNN、SSD等,其中SSD拥有较高的检测精确度、召回率以及实时性。本发明提出一种基于SSD及指数函数拟合的多目标识别及测距算法,其主要思想是将SSD检测出的待测目标检测框高度传入基于回归拟合训练所得的测距结构,从而实时地获取多个目标的距离。
发明内容
本发明的目的在于改进现有盲人行走辅助系统(ETA)的不足,提供一种基于机器视觉的多运动目标快速测距方法,该方法能够自动高效、实时地对特定多个目标进行识别与测距,对提升盲人的电子行走辅助有重要的作用。
为实现上述目的,本发明的技术方案是:一种基于机器视觉的多运动目标快速测距方法,包括如下步骤,
S1、训练及测试图像数据集采集:对盲人出行影响较大的物体类别进行图像数据采集,将采集的数据分为三份,分别为训练集、测试集和侧面测试集,其中侧面测试集用来评估摄像头不同角度拍摄对测距的影响;
S2、目标识别:采用卷积神经网络进行目标识别,利用基础分类网络微调以提升准确率,利用不同层级的特征图进行检测以适应不同尺寸的目标物体,同时采用默认检测框机制来离散化输出框;
S3、训练图像数据集人工标注:对训练集以及测试集中每个图片中的每一类目标物进行人工标注,并记录其宽与高;
S4、数据拟合:已标记好的训练集中标注框的高度,记为X,距离记为Y,显著值a=0.05。根据其趋势采取指数模型:接着考虑到高度与距离量纲区别较大,为了消除其影响,首先将数据归一化到0-1范围;其次,为了提高模型的泛化能力,加入高斯噪声;然后,利用高斯-牛顿迭代法求解模型的未知数β=(β0,β1)T;最后,经过若干次迭代得到测距模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于福州大学,未经福州大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710940904.6/2.html,转载请声明来源钻瓜专利网。