[发明专利]基于对比的快速暴恐视频识别方法有效
申请号: | 201810366397.4 | 申请日: | 2018-04-23 |
公开(公告)号: | CN108734106B | 公开(公告)日: | 2021-01-05 |
发明(设计)人: | 李兵;胡卫明;原春锋;王博;赵永帅;刘琴 | 申请(专利权)人: | 中国科学院自动化研究所 |
主分类号: | G06K9/00 | 分类号: | G06K9/00 |
代理公司: | 北京市恒有知识产权代理事务所(普通合伙) 11576 | 代理人: | 郭文浩 |
地址: | 100190 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 对比 快速 视频 识别 方法 | ||
本发明涉及视频分类领域,提出了一种基于对比的快速暴恐视频识别方法,旨在解决在基于视觉特征的暴恐视频识别中由于特征描述子描述能力有限,所造成的暴恐视频识别的准确率(precious)和召回率(recall)相对较低问题。该方法包括:对用于进行暴恐识别的待检测视频进行镜头分割以选取待检测视频的关键帧;利用预先构建的暴恐视频识别模型,对该待检测视频的各关键帧进行哈希码运算,得到各上述关键帧的哈希码;将各上述关键帧的哈希码分别与预存暴恐视频的视频帧的哈希码比较,确定出与各上述关键帧相似的视频帧;如果与各上述关键帧相似的视频帧的数目超过设定阈值,确定该待检测视频为暴恐视频。本发明能够快速、准确的从大量的视频中识别出暴恐视频。
技术领域
本发明涉及计算机视觉技术领域,特别涉及视频分类领域,具体涉及一种基于对比的快速暴恐视频识别方法。
背景技术
暴恐视频是指含有宣扬暴恐、宗教极端、民族分裂等内容的视频。随着网络技术的飞速发展,移动互联网时代随之而来,这使得越来越多的多媒体数据呈现在人们的眼前,暴恐视频也得以大量传播和扩散。目前对暴恐视频的检测主要通过人工审核标注,这种方法耗费了大量财力物力。因此面对数据量日益增长的互联网,需要一种新型的技术自动过滤恐怖主义视频图像内容,并可以在重要公共场所布控预警。
目前应用在暴恐视频检测上的视觉特征主要分为两类,静态特征和动态特征。静态特征用于描述视频帧内的特征,包括颜色、纹理,结构等。这些特征能够有效反映背景、环境、主角外观等信息,MPEG-7是一种典型的静态特征,有CLD、CSD、SC、EH等视觉描述子。动态特征用于描述视频帧间的特征,包括运动幅度,方向,频率等等,这些特征能够有效的反映视频中主角的运动状况。动态特征多半使用角点检测算法进行跟踪提取。如HOG、HOF、MoSIFT等等。其中MoSIFT算法用于检测局部特征,这个描述子只会在有充分运动的地方提取特征。但以上特征描述子描述能力有限,难以全面准确描述视频图像中的内容,尤其在暴恐视频中需要针对特定的目标进行检测,从而导致该检测工作准确率(precious)和召回率(recall)相对较低。
发明内容
为了解决现有技术中的上述问题,即为了解决两段视频中存在多处拷贝片段,无法准确检测一些经编辑后的视频的拷贝判断,以及准确定位拷贝视频片段的位置的问题,本申请提供了一种基于对比的快速暴恐视频识别方法,以解决上述问题。
本申请提供了基于对比的快速暴恐视频识别方法,该方法包括如下步骤:对用于进行暴恐识别的待检测视频进行镜头分割以选取上述待检测视频的关键帧;利用预先构建的暴恐视频识别模型,对上述待检测视频的各关键帧进行哈希码运算,得到各上述关键帧的哈希码;其中,上述暴恐视频识别模型基于哈希网络构建,其输入为视频帧,输出为所输入的视频帧的哈希码;将各上述关键帧的哈希码分别与预存暴恐视频的视频帧的哈希码比较,确定出与各上述关键帧相似的视频帧;统计相似帧的数目,如果与各上述关键帧相似的视频帧的数目超过设定阈值,则确定上述待检测视频为暴恐视频。
在一些示例中,“对用于进行暴恐识别的待检测视频进行镜头分割以选取上述待检测视频的关键帧”,包括:提取上述待检测视频的每帧视频帧的直方图,对相邻视频帧的直方图进行差异比较,以确定上述待检测视频的镜头边界;根据所确定的镜头边界,选取上述待检测视频各镜头的起始帧和/或结束帧作为关键帧。
在一些示例中,“将各上述关键帧的哈希码分别与预存的暴恐视频的视频帧的哈希码比较,确定出与各上述关键帧相似的视频帧”,包括:将各上述关键帧的哈希码分别与视频库中的暴恐视频的视频帧的哈希码比较;计算上述关键帧的哈希码与上述视频帧的哈希码的汉明距离;将上述汉明距离半径在设定值范围内的关键帧和视频帧确认为相似帧。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国科学院自动化研究所,未经中国科学院自动化研究所许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810366397.4/2.html,转载请声明来源钻瓜专利网。