[发明专利]一种基于集成深度网络的火焰检测识别方法及系统有效
申请号: | 202010095917.X | 申请日: | 2020-02-17 |
公开(公告)号: | CN111310662B | 公开(公告)日: | 2021-08-31 |
发明(设计)人: | 高尚兵;陈浩霖;相林;黄子赫;蔡创新;李文婷;汪长春;李凤;丁海林;袁涛;邱千禧;乔德金 | 申请(专利权)人: | 淮阴工学院 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/34;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 孟红梅 |
地址: | 223400 江苏省淮*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 集成 深度 网络 火焰 检测 识别 方法 系统 | ||
本发明公开了一种基于集成深度网络的火焰检测识别方法及系统,适用于对视频中的火焰实时检测识别。该方法通过公开的火焰视频数据,对U‑net和Resnet‑50网络进行训练,得到用于检测识别视频帧图像中火焰区域的模型;然后对摄像机获取的视频帧图像使用U‑net模型得到火焰候选区域,将火焰候选区域利用邻域分割法得到火焰候选目标;再利用Resnet‑50模型对火焰候选目标进一步识别,按照识别置信度进行删除操作得到火焰目标;最后记录并标记火焰目标在原视频帧中的位置。当视频流同一位置持续监测到火焰目标时,发出火焰警报。本发明可用于检测并识别视频中的火焰及其位置,识别率达到91.08%,火焰检测识别速度保持在25‑31帧/s,且对灯光和小目标具有较好的鲁棒性。
技术领域
本发明涉及图像处理及预防火灾技术领域,具体涉及一种基于集成深度网络的火焰检测识别方法及系统。
背景技术
火焰检测识别分很多种,基于传感器的传统火灾检测方法,检测范围有限且信息单一,检测速度存在较大的延迟。随着计算机和图像处理领域的理论及技术不断突破,研究人员利用机器学习算法结合图像处理来实现火焰的检测。此类方法主要利用火焰的色彩属性等静态特征和火焰圆形度、尖角、轮廓变化、闪动特征等动态特征来进行识别,然而根据先验知识设计人工特征提取算法比较困难和耗时,在面对不同的复杂环境和多变的火焰类型时,其泛化能力往往不足。还有 Andrew J.Dunnings与Toby P.Breckon提出的基于超像素火焰检测识别的方法,但存在无法进行实时检测识别的问题。
发明内容
发明目的:针对传统火焰检测识别存在易受干扰,误检率高的问题,以及在深度神经网络下实时性差的问题,本发明提供一种基于集成深度网络的火焰检测识别的方法及系统,通过融合U-net神经网络和Resnet-50神经网络的方法,提高火焰检测识别的精确度并且解决了实时性检测问题。
技术方案:为实现上述发明目的,本发明采用如下技术方案:
一种基于集成深度网络的火焰检测识别方法,包括以下步骤:
(1)获取视频帧图像,并进行预处理和归一化;
(2)使用训练好的U-net模型对归一化后的视频帧图像进行检测,找到视频帧图像对应火焰候选区域的二值图像;
(3)使用邻域分割法对火焰候选区域的二值图像按照距离规则进行聚类分割,得到视频帧中火焰的候选目标的二值图像;
(4)找到火焰候选目标二值图像在视频帧中对应的火焰候选目标图像,使用训练好的Resnet-50模型对火焰候选目标图像进一步识别,剔除非火焰目标得到火焰目标,并在原视频帧中对火焰目标进行标记,且保存火焰目标位置;
(5)当视频流中火焰目标中心位置在同一区域连续出现的帧数达到设定阈值后,发出火焰警报。
进一步地,训练U-net模型和Resnet-50模型的样本数据集通过对现有公开的火焰视频数据进行处理得到,具体为:
通过对公开的火焰视频使用取帧法将视频提取出视频帧集合,并对视频帧集使用图像标注工具进行标注火焰的位置构建标签数据集;
将训练数据集中每个视频帧图像对应的二值图像依照标签数据集,将二值图像中火焰位置设置为1,其他部分设置为0,形成U-net的二值图像标签数据集,最后将视频帧集合和二值图像标签数据集构建U-net的数据集;
将视频帧集合中所有视频帧图像缩小一定比例,将视频帧图像中火焰图片对应监督值设置为正向监督值,其他图片设置为负向监督值,构建ResNet-50的标签数据集,将视频帧集合和ResNet-50的标签数据集构建ResNet-50的数据集。
进一步地,所述步骤(1)中的预处理包括对视频帧图像利用提取相机内部参数,包括切向误差、径向误差和光心误差,进行鱼眼校正。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于淮阴工学院,未经淮阴工学院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010095917.X/2.html,转载请声明来源钻瓜专利网。