[发明专利]一种基于深度学习和邻接约束的纹理边界检测方法有效
| 申请号: | 202010988859.3 | 申请日: | 2020-09-18 |
| 公开(公告)号: | CN112215859B | 公开(公告)日: | 2023-08-18 |
| 发明(设计)人: | 凌云;李彪;刘春晓;章理登 | 申请(专利权)人: | 浙江工商大学 |
| 主分类号: | G06T7/13 | 分类号: | G06T7/13;G06T9/00;G06N3/0464;G06N3/084 |
| 代理公司: | 杭州中成专利事务所有限公司 33212 | 代理人: | 朱莹莹 |
| 地址: | 310018 浙江*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 深度 学习 邻接 约束 纹理 边界 检测 方法 | ||
本发明属于计算机视觉领域,涉及一种基于深度学习和邻接约束的纹理边界检测方法。该方法利用卷积神经网络实现邻接纹理边界检测,所述该方法模拟原始图像到标签图像的映射来实现邻接纹理边界检测,其实施步骤为设计基于编码器和解码器的卷积神经网络、训练数据合成、图像预处理、训练参数设置和训练模型;本方法提出邻接纹理边界的概念,并且根据所提定义制作了相对应的数据集,避免了人工标注的数据集所带来的误差;并且通过邻接约束得到邻接纹理边界的预测结果,邻接约束利用的是边缘点和相邻像素之间的关系,从而提高纹理边界像素的鉴别力。当前人工训练数据不够准确所带来的边界检测细节丢失、边界过粗等问题,提高了边界检测的精度。
技术领域
本发明属于计算机视觉领域,更具体的,涉及一种基于深度学习和邻接约束的纹理边界检测方法。
技术背景
边缘检测的主要目的是为了获取图像中亮度变化明显的点,即边缘点,这些点组成了一幅图像的边缘信息,这些边缘信息在许多图像处理技术中起着重要作用。目前的方法主要分为两类,第一类算法是以大量的数学,数字信号处理,信息论以及色度学的相关知识为基础的传统算法,比较有代表性的工作有Canny、Sobel算子等;第二类算法是基于深度学习的监督算法,以数据为驱动,学习样本数据内在的规律变化,对计算机视觉领域的发展起到了巨大的推动作用;主要的基于深度学习的边缘检测算法有HED、RCF等,在算法性能上超越了传统算法,成为近期边缘检测技术研究的主流方式。
虽然边缘检测技术起步较早,但是依然存在很多局限性,其中比较突出的一个局限性是对于边缘的定义相对模糊,这也导致了目前的检测方法难以泛化。通常意义上的边缘是一条单像素的线条,但是我们通过定量分析发现,其实并不存在边缘像素;例如一块红色和一块蓝色之间的一条边界,但是从像素级别来看,并没有任何像素点属于这条边界,因为从类别上分析,它们只能属于红色像素类或者蓝色像素类,并不存在中间类,所谓的边缘只是人视觉上产生的效果,并不真实存在。因此可以认为边缘点是成对出现的,最外层的蓝色像素和红色像素共同构成了边缘。在此基础上我们提出了邻接约束纹理边界的概念:两种或两种以上的纹理相接触会产生边界,这条纹理边界上的边界点是像素的集合,每一个边界点都包含两个以上不同类的像素点,我们称这种边界点为邻接纹理边界点。
发明内容
为了解决边缘检测领域边缘点定义模糊的问题,本发明提出了一个全新的纹理边界点定义:两种或两种以上的纹理相接触会产生纹理边界,这条边界上的边界点是像素的集合,每一个边界点都包含两个以上不同类的像素点,我们称这种边缘点为邻接纹理边界点。同时根据提出的全新的邻接纹理边界定义自动合成了纹理一致性边界检测数据集;最后提供了一种基于深度学习和邻接约束的纹理边界检测方法。
本发明是一种基于深度学习的纹理一致性的邻接纹理边界检测方法,该方法利用深度学习神经网络实现邻接纹理边界检测,所述该方法模拟原始图像到标签图像的映射来实现邻接纹理边界检测,设定映射函数为f,该方法可以用以下公式表示:
M=f(I)
其中,M是对应原始图像I的邻接纹理边界检测结果,f代表原始图像到邻接纹理边界检测结果的映射函数。
本发明所采用的技术方案如下:
一种基于深度学习和邻接约束的纹理边界检测方法,其特征在于,该方法模拟原始图像到标签图像的映射关系来实现图像的邻接纹理边界检测,其实施步骤为:
步骤一:设计基于编码器解码器结构的神经网络,编码器和解码器之间通过跳跃方式连接;
所述步骤一中,解码器的结构来自于ResNet,解码器的结构来自于U-Net的解码器。
步骤二:使用邻接纹理边界数据合成器生成符合邻接纹理边界特征的纹理合成图像(如图2所示)和对应的带有类别的邻接纹理边界均值图(如图3所示);
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江工商大学,未经浙江工商大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010988859.3/2.html,转载请声明来源钻瓜专利网。





