[发明专利]一种检测异常并且分割图像中异常区域的深度学习算法在审
申请号: | 202110359963.0 | 申请日: | 2021-04-02 |
公开(公告)号: | CN112907589A | 公开(公告)日: | 2021-06-04 |
发明(设计)人: | 姚健;堵炜炜;余家伟;胡超;顾建峰;陆海妹;后彬华 | 申请(专利权)人: | 联通(上海)产业互联网有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T7/136;G06K9/62;G06N3/08 |
代理公司: | 池州市卓燊知识产权代理事务所(普通合伙) 34211 | 代理人: | 李强 |
地址: | 200050 上*** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 检测 异常 并且 分割 图像 区域 深度 学习 算法 | ||
本发明涉及无监督图像异常检测分割技术领域,尤其为一种检测异常并且分割图像中异常区域的深度学习算法,包括以下步骤;S1,首先作正样本图像特征提取,本发明通过设计检测异常并且分割图像中异常区域的深度学习算法,该算法准确度高,在公开数据集测试榜单上取得top1分类精度;推理时间快,仅需保存模型参数,无需保存正样本特征或其统计量;相较于根据特征统计量做马氏距离度量的算法,该算法适用性更广,图像无需满足对齐这一约束条件;算法流程简单,只需选取最优的单个层级特征表示,无需多层级特征融合。分割阈值可根据实际情况采取不同选取方式。算法的泛化能力好,易于复用。
技术领域
本发明涉及无监督图像异常检测分割技术领域,尤其涉及一种检测异常并且分割图像中异常区域的深度学习算法。
背景技术
现存的无监督异常分割算法,主要有两种:1.基于重建的方法,通过自编码器(AutoEncoder)重建正样本图片,由于异常样本重建前后差异较大从而分割出异常区域,此类方法模型参数量大、训练时间长,对复杂图案重建效果不佳,分割准确度不高;2.基于预训练网络提取特征表示,并用knn等方法进行图像检索,将待测图片与特征空间上最临近的正样本参考图片作对比,分割出异常区域,该方法需要构建正样本特征字典,字典的内存占用、knn搜索时间都与正样本参考图片的数量成正比,当数据量非常大时,该算法非常耗时,另外,特征提取器通常是卷积神经网络,为获取不同感受野的特征表示,需要进行多层级特征融合。
综上所述,本发明通过设计一种检测异常并且分割图像中异常区域的深度学习算法来解决存在的问题。
发明内容
本发明的目的在于提供一种检测异常并且分割图像中异常区域的深度学习算法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种检测异常并且分割图像中异常区域的深度学习算法,包括以下步骤:
S1,首先作正样本图像特征提取,使用基于大规模公开数据集(ImageNet)训练的分类网络ViT(视觉transformer)预训练模型,对正样本训练集提取特征,得到的数据体维度表示为(N,C,H,W);
S2,通过耦合层堆叠而成的复杂流模型,对上述正样本特征进行概率密度估计;具体地,流模型以最小化观测数据的负对数似然为目标,通过梯度反向传递更新模型参数,经过训练阶段将复杂的未知数据分布映射为简单已知的多元正态分布;
S3,在测试阶段,被测样本特征经流模型得到维度不变(N,C,H,W)的数据体,对特征通道作L2范式,得到特征在位置(i,j)处的概率密度均值。例如,一张被测图片,其各个空间位置都可计算出概率密度,得到一个(H,W)的概率密度热力图,通过分割阈值筛选,做到图像块的正常/异常二分类,实现异常区域分割,并且将这个(H,W)的距离图的最大值记作异常值s,通过分类阈值筛选,做到全图的正常/异常二分类,即实现异常分类;
S4,对于分类和分割阈值的确定,提前人工标注一些真值,通过最大化AUCROC确定阈值或者在完全没有标注信息的情况下,通过正样本验证集,确定分类和分割的阈值,例如确定一个百分数,如98%,让98%的正样本位于分类阈值和分割阈值以下,此时的98%处的距离即作为阈值。
作为本发明优选的方案,所述S1中N表示训练用到的样本数量,C表示特征维度数,H和W分别的特征图的高和宽,正样本特征表示,仅需单个层级的特征,无需多尺度特征融合,并且正样本特征表示包括但不限于PCA降维、卷积网络投影、随机选取。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于联通(上海)产业互联网有限公司,未经联通(上海)产业互联网有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110359963.0/2.html,转载请声明来源钻瓜专利网。