[发明专利]基于动态背景补偿与深度学习的PTZ摄像机运动目标检测与识别方法在审
申请号: | 202010695736.0 | 申请日: | 2020-07-17 |
公开(公告)号: | CN111738211A | 公开(公告)日: | 2020-10-02 |
发明(设计)人: | 谢家阳;高承醒;于晋;吴均峰;陈积明;史治国 | 申请(专利权)人: | 浙江大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T7/246;G06T7/33;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 刘静 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 动态 背景 补偿 深度 学习 ptz 摄像机 运动 目标 检测 识别 方法 | ||
本发明公开了一种基于动态背景补偿与深度学习的PTZ摄像机运动目标检测与识别方法。该方法包括:1.提取视频流中前、中、后相邻三帧的关键点特征并进行匹配,根据匹配点集,使用随机采样一致性算法计算单应性矩阵,剔除匹配置信度低的特征点对,然后通过单应性矩阵对前、后两帧图像进行投影变换,与中间帧进行配准;2.使用三帧差分运动目标检测算法提取候选区域,经形态学膨胀算子与最小凸包检测对运动目标进行粗定位;3.将提取出的候选区域及其背景上下文输入到深度卷积神经网络提取特征,然后分别经分类网络与位置回归网络实现目标分类及位置的精细回归。
技术领域
本发明涉及计算机视觉领域,具体而言,涉及一种基于动态背景补偿与深度学习的PTZ摄像机运动目标检测与识别方法
背景技术
视频运动目标检测是计算机视觉的重要组成部分,它可以检测出视频中变化的区域,并将视频中的变化区域和运动目标提取出来,为目标分类、目标跟踪和行为分析等后续工作提供先验信息,但现有运动目标检测算法存在很多问题和极大局限性。帧间差分法是常用的运动目标检测与分割方法,其通过将前后两视频帧相减得到差分图像,然后通过阈值分割和形态学滤波提取运动目标的轮廓。帧间差分法的优点是算法简单,不易受环境光线影响,具有很好的实时性,但其不能用于运动的摄像头中;且无法识别静止或运动速度很慢的目标;运动目标表面有大面积灰度值相似区域的情况下,在做差分时图像会出现“空洞”、“双影”现象,在安防监控中,在设备有限的情况下,为扩大监控区域,多采用高清PTZ摄像机循环扫描对监控区域中的目标进行检测与识别,此时摄像机拍摄到的视频背景是动态变化的,此时不能直接采用帧间差分或者背景差分法对视频中运动的目标进行检测。同时,如果目标运动速度较快时,用帧间差分方法会出现在重影和空洞现象,不能准确提取无人机在画面中位置;另外由于树叶摇动、系统噪声等干扰会导致很多误检。
本发明创新性地提出一种基于动态背景补偿的运动目标检测与识别方法,首先对运动背景进行补偿,对前、中、后三帧进行配准,将动态背景中的运动目标检测转化为静止背景中运动目标检测,然后改进了三帧差分法提取运动目标候选区域,经形态学膨胀算子与最小凸包检测对运动目标进行粗定位,最后将提取出的候选区域及其背景上下文输入到深度卷积神经网络提取特征,然后分别经分类网络与位置回归网络实现目标分类及位置的精细回归,去除误检。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
有鉴于此,本发明提供一种基于动态背景补偿与深度学习的PTZ摄像机运动目标检测与识别方法。此方法属于两阶段目标检测,第一阶段提取候选区域,与传统的候选区域不同,本方法采用基于运动目标检测的候选区域方法,并采用动态背景补偿将动态背景中的运动目标检测转化为静态背景中的运动目标检测,快速地为第二阶段的目标检测提供了准确的候选区域;检测的第二阶段采用深度卷积神经网络对运动目标候选区域进行目标分类与位置回归。本发明可应用于对大范围监控区域进行循环扫描的PTZ摄像机,快速准确地对监控区域中的运动目标进行检测与识别。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的一个方面,提供了一种基于动态背景补偿与深度学习的PTZ摄像机运动目标检测与识别方法,包括三个步骤,步骤一:提取视频流中前、中、后相邻三帧的关键点特征并进行匹配,根据匹配点集,使用随机采样一致性算法计算单应性矩阵,剔除匹配置信度低的特征点对,然后通过单应性矩阵对前、后两帧图像进行投影变换,与中间帧进行配准;步骤二:对于配准完的前、中、后三帧,采用三帧差分运动目标检测算法提取候选区域,使用形态学膨胀算子对候选区域进行后处理,结合最小凸包检测对运动目标进行粗定位;步骤三:将提取出的候选区域及其背景上下文输入到深度卷积神经网络提取特征,然后分别经分类网络与位置回归网络实现目标分类及位置的精细回归。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010695736.0/2.html,转载请声明来源钻瓜专利网。