[发明专利]一种利用深度学习分类模型实现烟雾检测的方法和系统有效
申请号: | 201811578770.9 | 申请日: | 2018-12-24 |
公开(公告)号: | CN109598891B | 公开(公告)日: | 2019-10-08 |
发明(设计)人: | 李成华;杨斌;江书怡;江小平;向清华 | 申请(专利权)人: | 中南民族大学 |
主分类号: | G08B17/12 | 分类号: | G08B17/12 |
代理公司: | 武汉臻诚专利代理事务所(普通合伙) 42233 | 代理人: | 宋业斌 |
地址: | 430074 湖北省武*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 烟雾图像 分类模型 烟雾 交集 差值图像 图像模型 烟雾检测 烟雾识别 运动区域 学习 高斯混合模型 二值化处理 实时检测 检测率 视频流 误检率 准确率 去雾 算法 标注 图像 | ||
本发明公开了一种利用深度学习分类模型实现烟雾检测的方法,包括:从视频流中获取一帧待去烟雾图像,利用高斯混合模型对待去烟雾图像进行处理,以得到该待去烟雾图像的运动区域,利用暗通道去雾算法对图像进行处理,以得到无烟图像模型,获取待去烟雾图像和无烟图像模型之间的差值图像,对差值图像进行二值化处理,以得到疑似烟雾区域,获取运动区域和疑似烟雾区域之间的交集区域,将交集区域输入训练好的深度学习分类模型中,以得到最终的烟雾识别结果,并根据该烟雾识别结果在待去烟雾图像中标注烟雾区域。本发明用轻量级的深度学习分类模型,达到较高的准确率和检测率,降低误检率,并可以实现实时检测的效果。
技术领域
本发明属于图像处理技术领域,更具体地,涉及一种利用深度学习分类模型实现烟雾检测的方法和系统。
背景技术
火灾是自然灾害和社会灾害中发生概率最高的灾害之一,对人类生活和生命构成严重威胁。火灾发生的前期往往伴随着大量烟雾的产生,如能及时准确地对烟雾进行检测,对火灾预警及扑救有着深远意义。
如今主要采用的视频烟雾检测方法是基于颜色特征、边缘检测、LBP算子、小波变换等的人工特征提取方法,但这些检测方法均存在一些不可忽略的问题:第一、由于烟雾的形状和颜色多变,这些方法所提取的特征泛化能力差,从而导致其准确率和检测率较低,误检率较高,应用场景有限;第二、这些方法往往需要将整幅图像作为输入,计算量大,实时性较差;第三、普通的深度学习分类模型为了得到更好识别效果,通常采用较为复杂的模型结构,从而导致模型参数量较多,算法计算量大。
发明内容
针对现有技术的以上缺陷或改进需求,本发明引入了深度学习算法,将特征表示和分类器联合优化,提供了一种利用深度学习分类模型实现烟雾检测的方法和系统,在训练分类模型时,加入本发明中提出的得分聚类损失函数,其目的在于,用轻量级的深度学习分类模型,达到较高的准确率和检测率,降低误检率,并可以实现实时检测的效果。
为实现上述目的,按照本发明的一个方面,提供了一种利用深度学习分类模型实现烟雾检测的方法,包括以下步骤:
(1)从视频流中获取一帧待去烟雾图像I;
(2)利用高斯混合模型对步骤(1)中得到的待去烟雾图像I进行处理,以得到该待去烟雾图像I的运动区域Region1;
(3)利用暗通道去雾算法对图像I进行处理,以得到无烟图像模型J;
(4)获取步骤(1)得到的待去烟雾图像I和步骤(3)得到的无烟图像模型J之间的差值图像P;
(5)对步骤(4)得到的差值图像P进行二值化处理,以得到疑似烟雾区域Region2;
(6)获取步骤(2)中得到的运动区域Region1和步骤(4)中得到的疑似烟雾区域Region2之间的交集区域;
(7)将步骤(6)中得到的交集区域输入训练好的深度学习分类模型中,以得到最终的烟雾识别结果,并根据该烟雾识别结果在待去烟雾图像I中标注烟雾区域。
优选地,步骤(3)具体是采用以下公式:
其中x表示图像I中的任何一个像素点,A表示总体大气光强,t(x)表示图像I的透射率。
优选地,透射率其中c表示图像I中的RGB颜色通道,Ω(x)表示以RGB颜色通道c中的以像素点x为中心的正方形区域,y表示正方形区域Ω(x)中的像素点,Ic(y)表示RGB通道c中的图像,Ac表示RGB颜色通道中的总体大气光强。
优选地,步骤(5)中的二值化处理过程具体是采用以下公式:
其中T表示二值化阈值,其取值范围是25到35之间,优选为30。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中南民族大学,未经中南民族大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201811578770.9/2.html,转载请声明来源钻瓜专利网。