[发明专利]基于深度学习的织物瑕点智能检测方法在审
申请号: | 202210445348.6 | 申请日: | 2022-04-26 |
公开(公告)号: | CN114742809A | 公开(公告)日: | 2022-07-12 |
发明(设计)人: | 陈伟杰;徐敏彰;谢森时;陈彦榕;陈冰;叶彬雅 | 申请(专利权)人: | 浙江工业大学之江学院 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T3/60;G06T7/10;G06V10/26;G06V10/40;G06V10/24;G06V10/774;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 杭州鼎乎专利代理事务所(普通合伙) 33377 | 代理人: | 黄勇 |
地址: | 312030 浙江省绍*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 学习 织物 智能 检测 方法 | ||
本发明公开了一种基于深度学习的织物瑕点智能检测方法,涉及纺织品技术领域。本发明包括如下模型训练步骤:步骤1,收集关于织物瑕点的图片,对原图片裁剪旋转等方式操作,主要是对于数据集中较少的类别进行增强使图片数量尽可能平衡,将所有图片按比例分为训练集和验证集。本发明为了防止过拟合,利用裁剪旋转等方式对于较少数量的瑕疵样本进行了数据增强,更有效地提高模型的性能,从而实现准确的预测。本发明基于yolo5‑lite模型,根据织物缺陷判断的特征巧妙地确定了隐含层数数目、各层神经元的数目以及网络参数,也即构建了一个适合检测织物好次的卷积神经网络模型。为具有高准确率的织物瑕疵识别提供了可能。
技术领域
本发明属于纺织品技术领域,特别是涉及一种基于深度学习的织物瑕点智能检测方法。
背景技术
随着人们生活质量的提高,人们对于纺织品的要求逐渐从传统意义上的实用性、耐用性向着时尚性、美观性发展。而在绍兴轻纺城,面对数目繁多的纺织品以及时时可能变化的布匹图案,单单凭借人力已经无法满足生产的需要。使用机器对织物的缺陷进行检测成为了简洁且有效的方法。为此,本发明针对上述问题,制作了一个瑕点检测系统。
发明内容
本发明的目的在于提供一种基于深度学习的织物瑕点智能检测方法,解决了现有面对数目繁多的纺织品以及时时可能变化的布匹图案,单单凭借人力已经无法满足生产的需要的技术问题。
为达上述目的,本发明是通过以下技术方案实现的:
一种基于深度学习的织物瑕点智能检测方法,包括:模型训练过程和模型应用过程,模型训练过程步骤如下:
步骤1,收集关于织物瑕点的图片,对原图片裁剪旋转等方式操作,主要是对于数据集中较少的类别进行增强使图片数量尽可能平衡,将所有图片按比例分为训练集和验证集;
步骤2,利用标注工具,框出训练集中的瑕点,并记录下类别,生成所标记框的相关文件;
步骤3,将经过预处理的图像输入主干网络,经过多次卷积,图像切片和一系列处理后的三个大小不同的特征层,再将三个特征层分别输入neck部分,经过一系列处理后,产生新的三个特征层并输入给输出端;
步骤4,用卷积块注意力CBAM模块替换骨干网络中的部分CSP模块;
步骤5,输出端根据新生成的三个特征层,给出边界框和置信度;
步骤6,重复上述过程使模型逐渐收敛,并通过验证集的测试不断调整参数,以使其具有泛化能力和精度提升;
步骤7,模型对织物瑕点进行识别。
可选的,步骤1中的织物瑕点的图片的收集数量大于等于5000张,经过裁剪旋转等方式对原图片操作后变成了14000张左右。
可选的,步骤4中的CBAM模块主要由通道注意力模块和空间注意力模块组成,分别在通道和空间上进行特征的提取。
可选的,步骤5中的输出端根据新生成的三个特征层,给出边界框时,模型初始的预测,一个种类会有多个边界框,其中边界框里确实有物体的自信程度和边界框是否将整个物体的所有特征都包括进来的自信程度。
可选的,步骤5中还包括:
S5.1,采用非极大值抑制方法,筛选掉重复的边界框,非极大值抑制的步骤是,先根据置信度得分进行排序,选择置信度最高的边界框添加到最终输出列表中,将其从边界框列表中删除,计算所有边界框的面积,计算置信度最高的边界框与其它候选框的交并比IoU;
S5.2,删除IoU大于一定值的边界框,重复上述过程直到边界框列表为空。剩下的边界框便是预测框,再将其与之前手动标注的框进行对比,并采用GIoU损失函数计算损失;
S5.3,利用损失函数做反向传播,从而调整yolov5-lite的权重。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工业大学之江学院,未经浙江工业大学之江学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210445348.6/2.html,转载请声明来源钻瓜专利网。