[发明专利]一种基于深度学习和结构信息的高铁场景感知方法在审
| 申请号: | 201910193175.1 | 申请日: | 2019-03-14 |
| 公开(公告)号: | CN109948690A | 公开(公告)日: | 2019-06-28 |
| 发明(设计)人: | 李兆洋;罗建桥;李柏林;程洋 | 申请(专利权)人: | 西南交通大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 成都信博专利代理有限责任公司 51200 | 代理人: | 王沙沙 |
| 地址: | 610031 四川省成都市*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 感知 检测 高铁场景 结构信息 类别信息 训练模型 数据集 挡肩 扣件 轨枕 道岔区域 迭代训练 定位结果 轨道部件 轨道图像 损失函数 提取特征 网络模型 语义分割 测试集 训练集 构建 聚类 道岔 钢轨 标注 视频 图像 学习 轨道 网络 | ||
本发明公开了一种基于深度学习和结构信息的高铁场景感知方法,包括以下:步骤1:获取轨道图像,分为训练集和测试集,对训练集中的图像进行标注形成数据集;步骤2:构建SSD网络模型,并构造损失函数;步骤3:采用步骤1形成的数据集,对步骤2得到的网络进行迭代训练得到训练模型;步骤4:对需要检测感知的视频按帧输入到步骤3得到的训练模型中,提取特征,得到扣件和挡肩的位置和类别信息,根据扣件和挡肩的位置和类别信息区分道岔和普通轨道;步骤5:分别对步骤4中定位结果的位置信息进行聚类,完成钢轨和轨枕的感知;本发明可对道岔区域的轨道部件进行检测和语义分割,检测精度高,检测速度快。
技术领域
本发明涉及基于图像处理的轨道部件检测方法,具体涉及一种基于深度学习和结构信息的高铁场景感知方法。
背景技术
铁路交通运输作为社会经济发展的重要支撑、人民生活中不可或缺的交通工具,在整个社会发展中具有举足轻重的作用;特别是针对我国幅员辽阔、人口流动量大、资源分布不均衡等因素;铁路运输以其运能大、运输成本低、占地面积相对较少等优点,在各类公共交通工具中占据绝对的优势;随着中国铁建设的推进,国家计划到2020年,中国高速铁路营运里程将达到3万公里,高速铁路网覆盖80%以上的大城市。
铁轨设备的维护与检测是铁路交通技术中备受关注的问题,也是现阶段投入研发资金最多的项目之一;其中,高铁轨道主要由扣件、钢轨、轨枕、轨道板等构成,传统检测方法由经验丰富的巡道工完成,工人定期沿线路巡查,发现并报告异常部件;人工检测的劳动强度很大、工作环境非常恶劣,线上行驶车辆对检测员工的人身安全也构成潜在威胁;传统的铁路巡检方法已难以满足如今高速铁路运营的发展需要。
随着机器视觉的发展,基于图像的线路视觉检测技术受到越来越多的重视,但传统的视觉检测方法通常只检测某一单独部件的问题,并没有将扣件、钢轨和轨枕等进行分别感知;但是各轨道部件是有机的联合在一起的,对于各个轨道部件的感知非常有必要;通常传统的视觉检测方法采用模板匹配的方式,在高铁轨道的道岔处,由于轨道部件结构的不同,基本无法进行检测和感知。
发明内容
本发明提供一种可对道岔区域的轨道部件进行检测和语义分割的基于深度学习和结构信息的高铁场景感知方法。
本发明采用的技术方案是:一种基于深度学习和结构信息的高铁场景感知方法,包括以下:
步骤1:获取轨道图像,分为训练集和测试集,对训练集中的图像进行标注形成数据集;
步骤2:构建SSD网络模型,并构造损失函数;
步骤3:采用步骤1形成的数据集,对步骤2得到的网络进行迭代训练得到训练模型;
步骤4:对需要检测感知的视频按帧输入到步骤3得到的训练模型中,提取特征,得到扣件和挡肩的位置和类别信息,根据扣件和挡肩的位置和类别信息区分道岔和普通轨道;
步骤5:分别对步骤4中定位结果的位置信息进行聚类,完成钢轨和轨枕的感知。
进一步的,所述步骤4中提取特征,得到扣件和挡肩的位置和类别信息的过程如下:
在输入训练模型的每一帧图像中随机选取整幅图像的多个区域;通过卷积获取每个区域的评分;若评分值大于设定阈值则判断为扣件和挡肩;若评分值小于设定阈值则丢弃该结果,遍历所有区域,则将扣件和挡肩标注完成,得到位置和类别信息。
进一步的,所述步骤5中通过DBSCAN算法进行聚类。
进一步的,所述聚类过程如下:
S1:设置步骤4检测到的目标的x方向坐标位置D,半径eps和密度阈值Minpts;
S2:任意选定一个目标p;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学,未经西南交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910193175.1/2.html,转载请声明来源钻瓜专利网。





