[发明专利]一种基于残差神经网络的索道缆绳绳位智能识别方法在审
| 申请号: | 202111333484.8 | 申请日: | 2021-11-11 |
| 公开(公告)号: | CN114022671A | 公开(公告)日: | 2022-02-08 |
| 发明(设计)人: | 张秋昭;温亚飞;张松;于瑞鹏;谭庆 | 申请(专利权)人: | 中国矿业大学;山东省第一地质矿产勘查院 |
| 主分类号: | G06V10/25 | 分类号: | G06V10/25;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 北京淮海知识产权代理事务所(普通合伙) 32205 | 代理人: | 华德明 |
| 地址: | 221000*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 神经网络 索道 缆绳 智能 识别 方法 | ||
1.一种基于残差神经网络的索道缆绳绳位智能识别方法,其特征在于,包括以下步骤:
S1图像数据集制作:利用索道模型采集多角度的索道缆绳位置的图像数据作为图像数据集传送存储至工作站;
S2目标区域筛选:通过工作站筛选出索道不同位置的图像数据,并提取包含感兴趣区域的图像数据,根据图像数据中索道缆绳的位置,将提取出的包含感兴趣区域的图像数据分成正常位置、偏左位置、偏右位置三大类,根据每张图像所属的分类,为每张图像数据标注为“偏左”、“偏右”或“正常”的标签,并将标注过的图像数据按设定的比例分为训练样本集、验证样本集和测试样本集;
S3构建残差神经网络模型:基于传统的神经网络改进算法模型,构建多层次残差神经网络模型;
S4模型训练:通过改进后的多层次残差神经网络模型对标注过的图像数据集进行识别训练,通过多次迭代,获得最佳模型,并利用该模型对标注过的图像数据集进行测试,最后输出索道缆绳的位置结果;
S5模型部署:利用python语言进行web端部署,将训练的最佳模型接入web内,使用浏览器进行访问,之后应用中在缆绳的周围布置视频端,使视频端对准索道滑轮处,通过视频端采集缆绳在滑轮轴上的图像数据并传输到步骤S4获得的最佳模型中,通过该模型处理图像数据,并显示监测结果,即索道缆绳的位置结果。
2.根据权利要求1所述的一种基于残差神经网络的索道缆绳绳位智能识别方法,其特征在于,步骤S1具体包括以下步骤:
S1.1制作索道模型:根据索道的实际情况制作索道模型,在索道模型上安装电动装置用来模拟索道运行时的场景;
S1.2数据采集:待模型安装调试好之后,使索道模型正常运行,运行期间改变索道缆绳绳位的位置,采集索道缆绳在滑轮轴上的不同位置的图像数据作为图像数据集,传送并存储至工作站。
3.根据权利要求1所述的一种基于残差神经网络的索道缆绳绳位智能识别方法,其特征在于,步骤S2包括以下步骤:
S2.1工作站对存储的图像数据集进行感兴趣区域筛选:对图像数据集中的图像数据进行平滑去噪的预处理,利用Canny边缘检测得到感兴趣区域的边缘图像,同时利用形态学闭操作对图像处理过程中产生的“小空洞”进行填补,然后通过自定义广义霍夫变换进一步提取感兴趣区域,得到包含感兴趣区域图像数据之后,根据图像数据中索道缆绳的位置将图像数据分成正常位置、偏左位置、偏右位置三大类;
S2.2利用滑动窗口对经过步骤S2.1处理的图像数据集进行处理,将图像数据裁剪成设定尺寸;根据每张图像所属的分类,利用Pytorch框架为每张图像数据标注为“偏左”、“偏右”或“正常”的标签,并将标注过的图像数据按设定的比例分为训练样本集、验证样本集和测试样本集。
4.根据权利要求3所述的一种基于残差神经网络的索道缆绳绳位智能识别方法,其特征在于,在对筛选出的图像数据裁剪成设定尺寸之前进行以下处理:
对筛选出的数据进行数据增强,同时添加高斯噪声:
式中,是高斯噪声分布函数的均值,σ2是高斯噪声分布函数的方差,高斯噪声服从均值为0、方差为1的随机分布,P(z)是高斯噪声的概率密度函数,Fz()为添加高斯噪声的图像数据函数,v为图像像素单元,z是高斯噪声;
在图像数据低于设定数量的情况下对图像数据做镜像处理来丰富图像数据,镜像处理分为水平镜像和垂直镜像,设原图像的高度为t,宽度为w,经过镜像变换后,原图像中像素点变为新图像坐标处的像素值,用(x0,y0)表示原图像坐标,(x1,y1)表示经过镜像处理的变换后的坐标,两者关系表示为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国矿业大学;山东省第一地质矿产勘查院,未经中国矿业大学;山东省第一地质矿产勘查院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111333484.8/1.html,转载请声明来源钻瓜专利网。





