[发明专利]一种基于卷积神经网络模型的暴恐视频检测方法有效
申请号: | 201611128390.6 | 申请日: | 2016-12-09 |
公开(公告)号: | CN106778590B | 公开(公告)日: | 2020-07-17 |
发明(设计)人: | 纪荣嵘;林贤明;沈云航 | 申请(专利权)人: | 厦门大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06N3/02 |
代理公司: | 厦门南强之路专利事务所(普通合伙) 35200 | 代理人: | 马应森 |
地址: | 361005 *** | 国省代码: | 福建;35 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 卷积 神经网络 模型 视频 检测 方法 | ||
一种基于卷积神经网络模型的暴恐视频检测方法,涉及计算机视觉和机器学习。包括以下步骤:1)深度神经网络模型的训练;2)在线暴恐视频检测。利用深度学习模型组合低层特征,形成更加抽象的高层表示属性或特征,以发现数据的分布式特征表示。通过该模型能够获取描述能力强的视频图像特征描述子。该特征描述子涵盖了视频图像从低到高各个层次的特征信息,从而大大提高了暴恐视频检测的准确率和召回率。通过少量样本来训练深度卷积网络来获得优秀的检测性能。对恐怖图片检测准确率达99%以上,召回率达98%以上。对于恐怖视频检测准确率达95%,召回率达99%。训练过程无需人工参与,自动根据少量样本生成海量数据。
技术领域
本发明涉及计算机视觉和机器学习,尤其是涉及一种基于卷积神经网络模型的暴恐视频检测方法。
背景技术
恐怖主义的横行给世界各国人民带来了巨大灾难和伤痛。它造成了重大人员伤亡和财产损失,妨碍国家安全和社会稳定,其危害性远超普通刑事犯罪。恐怖主义思想散播的一个主要渠道便是通过视频图像进行传播。目前对暴恐视频的检测主要通过人工审核标注,耗费大量财力物力。若对视频或者图片文件重新进行编辑(如翻拍、转录),则又需要重新人工审核,效率十分低下。因此面对数据量日益增长的互联网,需要一种新型的技术自动过滤恐怖主义视频图像内容,并可以在重要公共场所布控预警。
现有的各种视频图像特征描述子(如sift、gist、mser、hessian等描述子)描述能力有限,难以全面准确描述视频图像中的内容,尤其在暴恐视频中需要针对特定的目标进行检测,从而导致该检测工作准确率(precious)和召回率(recall)相对较低。
目前市场上最相近的技术实现方案是利用文件的特征码进行过滤。特征码主要有MD5、SHA和CRC32等。使用特征码的方法只能过滤原始的文件。若文件发生了哪怕一比特的改变(转换格式,翻拍,视频图像编辑等),文件的特征码就会发生改变,此时就无法过滤此文件。因此对于新出现的暴恐视频,检测方法主要通过人工审核。
现有的各种视频图像特征描述子(如sift、gist、mser、hessian等描述子)描述能力有限,难以全面准确描述视频图像中的内容,尤其在暴恐视频中需要针对特定的目标进行检测,从而导致该检测工作准确率(precious)和召回率(recall)相对较低。因此大部分情况下只能通过人工审核。人工审核费时费力,在当前信息爆炸时代非常有局限性。
深度学习的概念由Hinton等(Geoffrey E.,Simon Osindero,and Yee-WhyeTeh.A fast learning algorithm for deep belief nets.Neural computation 18.7(2006):1527-1554.)于2006年提出。基于深信度网(DBN)提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等(LeCun,Y.,Bottou,L.,Bengio,Y.,Haffner,P.(1998).Gradient-based learningapplied to document recognition.Proceedings of the IEEE,86(11),2278-2324.)提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。
发明内容
本发明的目的在于针对现有技术存在的上述问题,提供一种基于卷积神经网络模型的暴恐视频检测方法。
本发明包括以下步骤:
1)深度神经网络模型的训练,具体方法如下:
训练数据:
正样本:每个类别一张清晰包含特定目标的暴恐图片或者视频帧,所述特定目标包括但不限于LOGO、旗帜;
负样本:数百万张左右网络下载的正常图片;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于厦门大学,未经厦门大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611128390.6/2.html,转载请声明来源钻瓜专利网。