[发明专利]一种基于深度学习的布匹分类检索方法在审
申请号: | 202011379047.5 | 申请日: | 2020-11-30 |
公开(公告)号: | CN112559791A | 公开(公告)日: | 2021-03-26 |
发明(设计)人: | 赖舒健;杨志景;黄韵瑜;陈俊阳;王美林 | 申请(专利权)人: | 广东工业大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06F16/55;G06T7/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 广州粤高专利商标代理有限公司 44102 | 代理人: | 林丽明 |
地址: | 510090 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 深度 学习 布匹 分类 检索 方法 | ||
本发明公开了一种基于深度学习的布匹分类检索方法,属于图像分类技术领域。所述方法包括步骤:分类布匹样本,采集布匹图像以建立图像数据库;建立基于深度学习的双线性深度卷积神经网络布匹分类模型;训练布匹分类模型,并保存最优模型;将待检索的布匹图像载入到分类模型中进行分类,获得置信度最高的5类分类结果合并成一个临时的检索数据库;在临时数据库上对待检索的布匹图像进行检索并输出结果。通过双线性深度卷积神经网络,计算不同空间位置特征的外积,从而捕获图像的纹理信息,在布匹分类任务上具有很好的效果;通过在双线性深度卷积神经网络的基础上引用了双线性池化层降低输出特征维度,在保证分类结果准确率的同时减少了计算量。
技术领域
本发明涉及图像分类技术领域,更具体地,涉及一种基于深度学习的布匹分 类检索方法。
背景技术
目前,我国乃至世界绝大多数布匹生产企业和销售公司在布匹的分类和检索 步骤中,依然由人工来完成此类工作,存在着速度慢、效率低、劳动强度大的问 题。同时,不同类别的纹理布匹具有一定相似性;再加上各种噪声和环境的干扰, 使得人工识别、分类、检索变得十分困难。在识别过程中,还会受到检验人员的 经验、熟练程度以及一些主观因素的影响,所以分类检索的结果会存在很大偏差, 缺乏稳定性和可靠性。
布匹图像与普通的图像不同,普通的图像的特征绝大部分是关于形状的信息, 但是布匹图像则含有大量的纹理特征信息,纹理在图像中体现为特征值强度的某 种局部重复模式的宏观表现,这种布匹纹理存在着类内差异大,类间差异小的问 题,目前,图像分类领域普遍采用基于深度学习的方法。大多数主流的深度学习 图像分类框架,例如VGG、ResNet、GoogLeNet在实际应用中都是用于普通的 图像分类,对于布匹这类包含丰富纹理信息的图像却不太适用。如果需要达到工 业要求的准确率,一般需要很深的网络结构,不仅计算成本太高,而且耗时大, 很难满足工业要求。因此,针对于这种纹理图像分类检索,需要特定的纹理分类 检索网络框架去完成。
由于现有的中大规模的图像检索一般步骤为:图像特征提取、图像特征编码 学习、距离排序匹配、图像检索。因此还存在耗时较长、硬件要求高的技术问题, 同时考虑到纹理布匹的特点,这种方法应用到布匹数据库检索的效果很差。
公开号为CN107369155A公开日:2017-11-21提出的一种基于机器视觉的布 匹表面疵点检测方法及其系统通过深度学习算法构建布匹瑕疵点分类模型,实现 布匹瑕疵点的自动检测和分类,仅通过该专利申请技术方案中的瑕疵点分类模型 以及模型训练方法,无法对合格布匹进行分类,在布匹分类阶段低效耗时。
因此,如何实现自动识别分类纹理布匹并且进行自动检索最相似的布匹,从 而提升效率,减少工作量,是目前需要解决的技术问题。
发明内容
本发明为克服上述现有技术所述的用于普通图像分类的深度学习图像分类 框架存在效率低、计算量大的缺陷,提供一种基于深度学习的布匹分类检索方法, 技术方案如下:
一种基于深度学习的布匹分类检索方法,包括步骤:
S1.对布匹样本确认所属类别,拍照采集所述布匹样本的布匹图像,建立图 像数据库;
S2.对全部布匹图像进行特征提取,建立特征数据库;
S3.对所述图像数据库中的布匹图像进行数据增强处理,扩充图像数据库;
S4.建立基于深度学习的布匹分类模型;
S5.采用所述扩充后的图像数据库训练布匹分类模型并保存其参数,得到完 成训练的布匹分类模型;
S6.将待检索的布匹图像载入到完成训练的布匹分类模型中进行分类,获得 在所述特征数据库中置信度最高的A类分类结果,其中A为正整数;
S7.在所述特征数据库中,选取所述置信度最高的A类分类结果对应的图像 特征子集,组成一个临时的检索数据库;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于广东工业大学,未经广东工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202011379047.5/2.html,转载请声明来源钻瓜专利网。