[发明专利]一种定时定点场景异常检测方法有效
申请号: | 202010589246.2 | 申请日: | 2020-06-24 |
公开(公告)号: | CN111767826B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 董亚波;方盛凯;吕一帆 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06V20/40 | 分类号: | G06V20/40;G06V20/52;G06V10/774;G06V10/82;G06N3/0464;G06N3/08 |
代理公司: | 杭州天勤知识产权代理有限公司 33224 | 代理人: | 曹兆霞 |
地址: | 310013 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 定时 定点 场景 异常 检测 方法 | ||
本发明公开了一种定时定点场景异常检测方法,包括:采用无线图像传感器定时定点采集场景图像,并对场景图像进行预处理,获得样本图像和测试图像;构建图像检测模型,该图像检测模型训练体系训练获得,训练体系包括编码器、解码器和判别器;训练时,以内容一致性损失、重构损失、对抗损失以及循环一致性损失之和作为训练体系的损失,对训练体系进行参数优化,提取参数确定的编码器作为图像检测模型;利用图像检测模型从样本图像中筛选得到锚定图像组;根据锚定图像组和图像检测模型对测试图像进行异常值测试,获得异常测试结果。该定时定点场景异常检测方法基于定时定点的静态图像进行自动场景异常检测,操作简单,功耗低。
技术领域
本发明属于计算机视觉与模式识别领域,具体涉及一种定时定点场景异常检测方法。
背景技术
近年来,随着人工智能、硬件等技术的进步,视频媒体技术得到了飞速地发展并广泛应用到了各个领域。然而,传统的视频监控系统往往通过人不间断地盯着监控视频,从而及时发现问题并处理。然而随着人力成本的上升以及监控摄像头的数量不断增加,落后的监控手段逐渐限制了监控系统的应用。智能视频监控系统通过利用计算机视觉、图像处理等技术,实时自动地分析视频数据,逐渐缓解了监控系统对于人力的依赖性。当智能视频监控系统发现监控场景之中出现异常数据时,会立刻发送异常信号,从而促使相关部门及时做出响应。考虑到对于场景监控而言,异常场景的定义相比于正常场景而言更为宽泛,因而以正常场景建模的方法相比于从异常场景出发的方法而言,有如下好处:1、降低了对于异常数据的依赖,缓解了异常数据的困难性;2、使建模更加灵活方便,无需显式地声明异常的类型和数量。
另一方面,传统的监控系统往往是基于视频展开工作,因而传统的监控系统对于工作环境以及硬件设备具有较高的要求。然而,在某些特殊情况下,例如野外环境无法负担起对摄像头不间断供电,基于视频的监控系统并不是一个有效的方案。为此,基于定时拍摄低功耗无线图像传感器的监控系统可以视作为在某些特殊情况下的基于视频的监控系统的有效替换;
申请公布号为CN105335703A的专利申请公开了一种基于运动重构技术的交通场景异常检测方法,申请公布号为的专利申请公开了一种拥挤场景下视频异常事件检测方法。这两个技术方案均是适用于运动场景的检测。
发明内容
本发明的目的就是提供一种定时定点场景异常检测方法,该定时定点场景异常检测方法基于定时定点的静态图像进行自动场景异常检测,操作简单,功耗低。
本发明的技术方案为:
一种定时定点场景异常检测方法,包括以下步骤:
步骤1、采用无线图像传感器定时定点采集场景图像,并对场景图像进行预处理,获得样本图像和测试图像;
步骤2、构建图像检测模型,该图像检测模型通过基于生成对抗网络构建的训练体系训练获得,所述训练体系包括编码器、解码器和判别器,编码器和解码器组成是生成器,用于根据输入的样本图像生成重构图像,判别器用于判别输入的样本图像和重构图像的真伪;训练时,以内容一致性损失、重构损失、对抗损失以及循环一致性损失之和作为训练体系的损失,对训练体系进行参数优化,提取参数确定的编码器作为图像检测模型;
步骤3、利用图像检测模型从样本图像中筛选得到锚定图像组;
步骤4、根据锚定图像组和图像检测模型对测试图像进行异常值测试,获得异常测试结果。
与现有技术相比,本发明具有的有益效果至少包括:
本发明提供的定时定点场景异常检测方法,通过定时定点采集场景图像,功耗低,基于生成式对抗网络构建的图像检测模型能够滤除掉光影变化对图像内容的干扰,提升了的图像检测模型的检测精度,利用该图像检测模型自动进行场景异常值检测,提升了场景异常检测准确性,且全自动检测,克服了依赖人力、工作环境严苛的局限性。
附图说明
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010589246.2/2.html,转载请声明来源钻瓜专利网。