[发明专利]一种基于深度学习和结构信息的高铁场景感知方法在审
| 申请号: | 201910193175.1 | 申请日: | 2019-03-14 |
| 公开(公告)号: | CN109948690A | 公开(公告)日: | 2019-06-28 |
| 发明(设计)人: | 李兆洋;罗建桥;李柏林;程洋 | 申请(专利权)人: | 西南交通大学 |
| 主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 成都信博专利代理有限责任公司 51200 | 代理人: | 王沙沙 |
| 地址: | 610031 四川省成都市*** | 国省代码: | 四川;51 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 感知 检测 高铁场景 结构信息 类别信息 训练模型 数据集 挡肩 扣件 轨枕 道岔区域 迭代训练 定位结果 轨道部件 轨道图像 损失函数 提取特征 网络模型 语义分割 测试集 训练集 构建 聚类 道岔 钢轨 标注 视频 图像 学习 轨道 网络 | ||
1.一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,包括以下:
步骤1:获取轨道图像,分为训练集和测试集,对训练集中的图像进行标注形成数据集;
步骤2:构建SSD网络模型,并构造损失函数;
步骤3:采用步骤1形成的数据集,对步骤2得到的网络进行迭代训练得到训练模型;
步骤4:对需要检测感知的视频按帧输入到步骤3得到的训练模型中,提取特征,得到扣件和挡肩的位置和类别信息,根据扣件和挡肩的位置和类别信息区分道岔轨道和普通轨道;
步骤5:分别对步骤4中定位结果的位置信息进行聚类,完成钢轨和轨枕的感知。
2.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤4中提取特征,得到扣件和挡肩的位置和类别信息的过程如下:
在输入训练模型的每一帧图像中随机选取整幅图像的多个区域;通过卷积获取每个区域的评分;若评分值大于设定阈值则判断为扣件和挡肩;若评分值小于设定阈值则丢弃该结果,遍历所有区域,则将扣件和挡肩标注完成,得到位置和类别信息。
3.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤5中通过DBSCAN算法进行聚类。
4.根据权利要求3所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述聚类过程如下:
S1:设置步骤4检测到的目标的x方向坐标位置D,半径eps和密度阈值Minpts;
S2:任意选定一个目标p;
S3:判断其是否已经属于某个簇或已经成为噪声点,若是则返回步骤S2,若否则转入步骤S4;
S4:判断p的邻域范围的点是否小于Minpts,若是则标记p为噪声点,转入步骤S2;若否则转入步骤S5;
S5:遍历p邻域半径范围内未被标记的点q;
S6:判断q的邻域范围的点是否小于Minpts,若是则转入步骤S5,若否则转入步骤S7;
S7:将q邻域内未归入其他簇的点加入到集合C中,结束。
5.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤3中训练过程中通过杰卡德系数计算每一个先验框与真实框之间的相似度,若相似度大于设定阈值则列入候选名单,否则不列入候选名单。
6.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤2中将原有SSD模型的参数信息作为要训练的新模型的初始化参数。
7.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤1中按照VOC数据集格式制作数据集。
8.根据权利要求1所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤2中损失函数L(x,c,l,g)如下:
式中:N为匹配到真实目标的先验框的数量,Lconf(x,c)为置信损失函数,Lloc(x,l,g)位置损失函数,l为先验框,g为真实框,c为Softmax函数对每类别的置信度,α为用于调整位置损失和置信损失之间比例的参数,x为中心坐标。
9.根据权利要求3所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤5中钢轨的感知过程如下:
S21:以图片左上角为坐标原点,横坐标和纵坐标分别向右向下增大,x方向坐标为特征将步骤4得到的目标聚成n类;
S22:根据步骤S21中的聚类结果和步骤4中得到的扣件和挡肩的位置信息,分别将每一类中y坐标最小和最大的框出的左侧或右侧横坐标位置信息连接起来;中间所夹即为钢轨位置。
10.根据权利要求3所述的一种基于深度学习和结构信息的高铁场景感知方法,其特征在于,所述步骤5中轨枕的感知过程如下:
S31:以图片左上角为坐标原点,横坐标和纵坐标分别向右向下增大,y方向坐标为特征将步骤4得到的目标聚成m类;
S32:根据步骤S31的聚类结果和先验信息,选取一行轨枕,在每一个扣件纵坐标上、或下k个像素到边界处的区域;
S33:将步骤S32截取区域进行投影,根据先验信息寻找投影图中梯度大于一定阈值的点,得到边界点,完成对轨枕位置的感知。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西南交通大学,未经西南交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910193175.1/1.html,转载请声明来源钻瓜专利网。





