[发明专利]一种改进的基于深度学习的复杂纹理图像瑕疵检测方法在审
| 申请号: | 202111268703.9 | 申请日: | 2021-10-29 |
| 公开(公告)号: | CN114066825A | 公开(公告)日: | 2022-02-18 |
| 发明(设计)人: | 王慧燕;赵佰梁 | 申请(专利权)人: | 浙江工商大学 |
| 主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/40;G06T3/40;G06N3/04 |
| 代理公司: | 杭州奥创知识产权代理有限公司 33272 | 代理人: | 王佳健 |
| 地址: | 310018 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 改进 基于 深度 学习 复杂 纹理 图像 瑕疵 检测 方法 | ||
本发明公开了一种改进的基于深度学习的复杂纹理图像瑕疵检测方法。本发明通过对resnet50网络结构的部分改进,将经过layer1和layer2输出的feature map通过1*1的卷积之后,按通道均分为s个子集;每个子集都有相应的convolution和involution操作,其中convolution和involution的两端均有残差结构,除了第一个子特征只进行卷积操作之外,其余子特征都与前一个子特征的输出进行相加之后再进行卷积操作,然后将各个子特征的输出进行拼接,再进行特征的融合;最后将融合后的特征经过SE block以进一步提升瑕疵检测精度。
技术领域
本发明属于计算机视觉中的目标检测领域,涉及到一种改进的基于深度学习的复杂纹理图像瑕疵检测方法。
背景技术
近年来,随着深度学习的迅猛发展,深度学习已逐渐成为主流的研究方法。在计算机视觉领域,基于深度学习的目标检测研究已经成为了一个重要的研究方向。尤其依赖于计算机硬件的不断升级与并行计算技术的迅猛发展,为深度神经网络模型的学习提供了更为便利的条件。
基于计算机视觉的物体表面瑕疵检测是工业界对产品把控的重要环节,目前主要依赖于熟练工人通过手工进行操作,人力成本高,对工人的经验要求也很高。若物体表面纹理复杂,例如不规则的纹理图案与其邻域的花纹十分相近,这就使得瑕疵特征不明显,检测难度增大。
目前主要的目标检测方法,基于神经网络的检测算法主要围绕着两阶段算法和一阶段算法,这两个系列展开:两阶段检测算法的第一阶段会从图像中选取候选区域,它的第二阶段会在候选区域对目标进行分类与定位;单阶段算法是基于对全局分类回归,并直接生成目标对象的位置和类别。这两种方法相比,单阶段算法的实时性更强,但检测精度有所下降。不管哪种方法,在检测复杂纹理图案上都容易与邻域花纹混淆,使得精度不够或者检测出错。
发明内容
本发明针对现有技术的不足,提出了一种改进的基于深度学习的复杂纹理图像瑕疵检测方法,提升检测精度的同时可广泛应用于其他网络。
本发明解决精度问题所采取的提升精度的方案为:
步骤1:将待检测的可能包含复杂纹理的图片,输入至RecoNet50的网络中进行特征提取,得到候选区域。
步骤2:将得到的候选区域通过卷积得到相应的复杂纹理的瑕疵特征。
步骤3:将卷积后的特征图通过最大池化层来减少参数量,以便后续计算,同时确保复杂纹理特征不会因为多次卷积造成特征消失,保证其后续检测的精度。
步骤4:将经过layer1和layer2之后得到的特征图先通过1*1的卷积操作,然后按通道平均分成s个子集,定义为:Xi,i∈{1,2,...,s},每个特征都有相同大小的尺寸,但通道是输入的1/s。
步骤5:每个子特征都有相应的3*3的卷积核和involution kernel(Li,Duo,etal.Involution:Inverting the inherence of convolution for visualrecognition.Proceedings of the IEEE/CVF Conference on Computer Vision andPattern Recognition.2021.)(在通道上共享kernel,可以使用大的空间从而通过spatial维度的设计提升性能的同时保证了通过channel维度的设计维持效率),分别定义为Ki()和Hi(),其输出为Yi。子特征Xi都和Hi-1()相加,然后输入到Ki()。因此Yi可以写作:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工商大学,未经浙江工商大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111268703.9/2.html,转载请声明来源钻瓜专利网。





