[发明专利]一种基于YOLOv3的火焰及浓烟检测方法在审
申请号: | 201911197998.8 | 申请日: | 2019-11-29 |
公开(公告)号: | CN111091072A | 公开(公告)日: | 2020-05-01 |
发明(设计)人: | 钱惠敏;施非;周军;黄浩乾;卢新彪 | 申请(专利权)人: | 河海大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06F16/951;G06N3/04;G06N3/08;G06T5/00;G08B17/12 |
代理公司: | 南京经纬专利商标代理有限公司 32200 | 代理人: | 许方 |
地址: | 211100 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 yolov3 火焰 浓烟 检测 方法 | ||
本发明公开了一种基于YOLOv3的火焰及浓烟检测方法,包含以下步骤:建立火焰数据集与浓烟数据集;使用随机水平翻转,裁剪,旋转的方式进行数据增强;使用YOLOv3算法分别训练出火焰模型和浓烟模型,融合为最终模型;在现有视频监控系统中,增加火焰和烟雾检测模块;基于视频监控系统的摄像头实时采集监控场景视频,并基于ffmpeg框架从视频中提取图像帧;采用融合检测模型对每帧图像进行检测,确定图像中有无火焰及浓烟并标出它们的位置;当检测到火情时自动报警,联动自动消防设备,摄像头提供实时监控。本发明可以实现对重要场所火情有效监控和危险预警,该方法具有不依赖手工特征,检测成本低,检测速度快、准确率高等优点。
技术领域
本发明属于计算机视觉和机器学习的交叉研究领域,更具体地,涉及一种基于YOLOv3的火焰及浓烟检测方法。
背景技术
火灾的发生会危及人们的生命财产安全,在变电站、医院、图书馆、森林等重要场所中发生火灾更是会造成不可挽回的损失。在这些重要场所中,火焰及时被识别、预警对专业人员的人身安全和公共财产安全具有重要意义。
火灾发生时,通常伴随产生浓烟、高温、高亮度等。因此,烟雾浓度、火焰亮度、温度等参数常作为火灾探测的重要参量。相应地,烟雾传感器、温度传感器等常被用于火灾检测。但是,传感器易受环境因素影响,且需要特定的应用环境,在森林等场所的火灾检测中无法使用。
随着计算机视觉技术的发展,基于图像的火焰/烟雾检测技术已成为研究热点。与基于传感器的火焰/烟雾检测技术相比,基于图像的火焰/烟雾检测技术不仅可以克服环境的影响,快速及时响应火情,而且可以清楚地提供火灾现场实时情况,便于施救人员处理。
早期的基于图像的火焰检测技术,通常基于火焰的颜色、亮度、纹理、形状等特征实现火焰检测。但是这类根据给定火焰特征的方法,抗干扰能力差、泛化能力不强,而火焰的发生场景、燃烧形态、伴随产生的烟雾的形态等,具有多样性,且容易受环境的影响,从而检测算法在不同场景下误报率高。
随着深度学习技术的不断发展,从更深层次自动挖掘特征并分析,已经成为火灾视频检测领域的新思路。把人工智能和深度学习技术应用到火灾监控中,通过图像处理与识别技术,避免了繁琐而耗时的特征提取过程,可以自动地从火焰和烟雾数据中学习丰富的特征,进一步提高火灾检测的准确率并实现火灾定位。
目标检测算法主要分为基于区域提议的两阶段目标检测算法和基于位置回归的一阶段目标检测算法。两阶段目标检测算法检测精度更高,一阶段目标检测算法检测速度较快,YOLOv3深度学习算法是一阶段目标检测算法,且通过改进网络结构等技术提高了检测精度。相比于早期的YOLO版本,YOLOv3的改进包括:借鉴了残差网络结构,得到更深的网络层次;并采用多尺度检测方法,提升了平均检测精度及对小物体的检测效果;使用Logistic函数代替Softmax函数输出预测,支持单目标多标签分类。
发明内容
发明目的:针对现有技术中存在的传感器易受环境因素影响,灵敏度差,可靠性不足的问题,本发明提供了一种基于YOLOv3的火焰及浓烟检测方法。
技术方案:为实现本发明的目的,本发明所采用的技术方案是:
一种基于YOLOv3的火焰及浓烟检测方法,步骤如下:
步骤1,收集包含火焰和浓烟的图像,建立火焰初始数据集和浓烟初始数据集;
步骤2,分别对火焰和浓烟初始数据集中的图像进行数据增强操作以扩充数据集,对扩充后数据集进行标注,按随机方式分别从扩充后的火焰和浓烟数据集中选择p%作为火焰训练数据集和浓烟训练数据集,对应数据集的剩余部分分别作为火焰测试数据集和浓烟测试数据集;优选的,所述数据增强操作包括随机水平翻转、裁剪、旋转、统一缩放至固定的尺寸;优选的,p%设为70%;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于河海大学,未经河海大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911197998.8/2.html,转载请声明来源钻瓜专利网。