[发明专利]一种基于行人自组织理论的人群异常检测方法在审
申请号: | 202111525073.9 | 申请日: | 2021-12-14 |
公开(公告)号: | CN114170571A | 公开(公告)日: | 2022-03-11 |
发明(设计)人: | 张旭光;王有浪;柳旺 | 申请(专利权)人: | 杭州电子科技大学 |
主分类号: | G06V20/52 | 分类号: | G06V20/52;G06V10/80;G06V10/26;G06V10/762;G06K9/62 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 孙孟辉 |
地址: | 310018 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 行人 组织 理论 人群 异常 检测 方法 | ||
本发明属于视频分析与图像处理技术领域,公开了一种行人自组织导向的人群异常检测算法。该方法首先结合背景差法和光流场分割场景中移动的行人。然后,提出了基于行人自组织理论的聚类策略,对一致性群进行聚类。行人自组织理论更符合行人运动的心理标准,充分利用行人属性特征进行聚类。采用了一种融合外观和运动信息的尺度不敏感特征,即同时考虑纹理特征和倾向流表达特征来发现异常的模式。实验表明,该方法在帧级和像素级测量方面均优于现有的几种方法。
技术领域
本发明属于视频分析与图像处理技术领域,尤其涉及一种基于行人自组织理论的人群异常检测方法。
背景技术
人群监控视频在公共安全管理领域发挥着重要的作用,社会生活中的各种环境、领域及重要场合已经越来越依赖于视频的自主监控,同时随着人们活动范围不断的扩大,在各种不同场合要应对的危险情况也越来越多,由此而产生的对监控的要求也越来越高,想要依靠人力来分析监控视频中的异常活动几乎是不可能完成的任务。所以,为了帮助操作人员实时检测威胁和异常事件,人们对自主人群分析进行了广泛的研究。为此,进行了多方面的研究和分析,例如人群建模、人群跟踪、人群密度估计与计数和人群行为理解。作为人群管理和安全的重要组成部分,检测视频监控反馈中的任何异常都是非常重要的。视频中可检测到的异常活动有:废弃物检测、盗窃检测、暴力活动等可疑活动、事故或交通违章活动。
一般来说,异常分为局部异常和全局异常,全局异常是指群体行为的异常,例如群殴、踩踏,游行、骚乱、聚集、奔跑、恐慌逃散等。局部异常是指人群中的异常事件,如步行街上的骑车、轮滑、轿车、急停急跑、检票口的逆行、逃票和徘徊等。相对而言,局部异常发生概率更高,检测难度更大,此外,全局异常通常是由局部异常扩散导致的。
现有的检测异常方法大致分为两类:基于轨迹和基于特征的方法。基于轨迹的方法通过跟踪算法来获取每个行人的轨迹,然后学习这些轨迹的潜在知识预测异常轨迹。这种方法只适用于小规模的人群,如果场景拥挤的话,人口密度的增加会不可避免的产生重叠和闭塞,导致很难获得准确的轨迹,从而降低检测的精度。而基于特征的方法通过划分不同的区域,然后提取每个区域的外观特征或者运动特征作为描述符,将这些描述符输入到分类器,或者训练模型,用来预测异常特征。因为划分的区域只关注空间的连续性而忽略时间的连续性,所以提取特征的方法避免了目标检测的问题。例如从图像补丁中提取梯度直方图(hog)和光流直方图(hof),但是,以固定步幅处理所有补丁非常耗时,并且缺乏语义理解,可能将单个目标分割成若干块,这对于行为分析是非常不合理的。
发明内容
本发明目的在于提供一种基于行人自组织理论的人群异常检测方法,以解决上述的技术问题。
为解决上述技术问题,本发明的一种基于行人自组织理论的人群异常检测方法,结合图像的外观特征和倾向流特征来描述一致性组的群体运动,提升检测性能,具体技术方案如下:
一种基于行人自组织理论的人群异常检测方法,包括如下步骤:
步骤1,人群一致性组分割;
步骤1.1,结合光流法和背景差法分割人群;
步骤1.2,利用行人自组织理论对运动区域进一步做一致性组分割;
步骤1.3,对一致性组进行噪声组合并;
步骤2,得到一致性组后,提取每个组的外观特征和倾向流特征,检测异常行为;
步骤2.1,提取每个一致性组的LBP特征;
步骤2.2,计算图像的倾向流场Us;
步骤3,利用支持向量机训练得到的人群正常模式的参数得到异常帧的ACU曲线。
进一步地,所述步骤1.1包括如下具体步骤:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州电子科技大学,未经杭州电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202111525073.9/2.html,转载请声明来源钻瓜专利网。