[发明专利]一种监控视频人员状态识别方法有效
申请号: | 201810265760.3 | 申请日: | 2018-03-28 |
公开(公告)号: | CN108537829B | 公开(公告)日: | 2021-04-13 |
发明(设计)人: | 侯晴宇;吴鹏;赵烨 | 申请(专利权)人: | 哈尔滨工业大学 |
主分类号: | G06T7/277 | 分类号: | G06T7/277;G06T7/11;G06T7/136;G06T7/194;G06T7/155 |
代理公司: | 哈尔滨市阳光惠远知识产权代理有限公司 23211 | 代理人: | 刘景祥 |
地址: | 150001 黑龙*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 监控 视频 人员 状态 识别 方法 | ||
1.一种监控视频人员状态识别方法,其特征在于:包括以下步骤:
(1)利用目标检测算法和目标跟踪算法建立综合模块,利用建立的综合模块建立视频图像中人员目标的轨迹信息;
(2)基于图像像素时序灰度分布特性构建视频场景的背景模型,通过背景模型对目标边界信息进行精确定位;
(3)通过轨迹的帧间位置移动量判断人员目标的状态;
步骤(1)所述综合模块的处理流程包括以下步骤:
1)若检测算法首次检出目标,则直接以检测输出的位置信息建立目标轨迹,并且以该位置信息初始化跟踪算法,若非首次检出目标,则计算当前帧图像中所有检测区域与所有跟踪区域的重叠率,计算公式如下式(1)所示,
式中,SD为检测区域的目标区域面积,ST为跟踪区域的目标区域面积;
2)对于某一检测区域,取和其重叠率最大的跟踪区域,若该重叠率大于阈值thres1,则认为该检测区域与该跟踪区域关联成功,得到关联成功的目标区域;
3)对所有的检测区域重复步骤2),得到所有关联成功的目标区域、未关联的跟踪区域和未关联的检测区域;
4)对于关联成功的目标区域,计算该检测区域与跟踪区域重叠率次大值,若重叠率最大值和次大值之差小于阈值thres2,则以该重叠率最大的跟踪区域位置信息作为当前帧的对应目标轨迹的位置信息,若重叠率最大值和次大值之差大于阈值thres2,则以该检测区域的位置信息作为当前帧的对应目标轨迹的位置信息,同时以该检测区域位置代替相对应的跟踪算法当前帧目标的位置;
5)对于未关联的检测区域,计算该检测区域与轨迹信息中所有目标区域的包含关系系数,计算公式如下式(2)所示
式(2)中,为轨迹信息中第i个目标区域面积,i=1,2…m,其中m为当前帧中目标编号最大值,若max(Ri)≥thres3,则不进行任何处理,若max(Ri)<thres3,则以该检测区域位置信息建立新的目标轨迹,同时以该位置信息初始化跟踪算法;
6)对于未关联的跟踪区域,以跟踪区域位置信息作为当前帧的对应目标轨迹的位置信息,并且记录该目标连续未检出的帧数,若帧数大于阈值thres4,则删除该目标轨迹信息。
2.根据权利要求1所述的方法,其特征在于:步骤(1)所述目标检测算法为基于帧间差分、基于卡尔曼滤波、基于背景建模或基于深度学习的目标检测算法。
3.根据权利要求1所述的方法,其特征在于:步骤(1)所述目标跟踪算法为基于角点、基于粒子滤波、基于相关滤波或基于均值移位的目标跟踪算法。
4.根据权利要求1所述的方法,其特征在于:步骤(1)所述综合模块,基于多策略的检测区域和跟踪区域关联及分配方法,完成检测和跟踪算法的结合与相互监督,建立目标轨迹,所述轨迹信息包括帧序号、目标编号、目标位置、目标框尺寸以及目标的状态信息。
5.根据权利要求1所述方法,其特征在于:步骤(2)具体为:
1)计算当前帧的背景模型,公式如式(3)所示:
式中:k为帧序号,k为正整数,(x,y)为像素点的位置,Nk(x,y)为第k帧(x,y)像素点计数次数,Sk(x,y)为前k帧(x,y)像素点像素值的求和,Ik(x,y)为第k帧帧图像的像素值,Bk(x,y)为第k帧图像的背景模型;
2)目标区域和背景模型进行差分获得残差图像,对残差图像进行阈值分割获得二值图像,对二值图像进行数学形态操作获得精确的目标边界。
6.根据权利要求5所述方法,其特征在于:步骤2)所述阈值分割采用的公式为:
thres=mean(img)-0.2*std(img)
式中mean(img)为残差图像的均值,std(img)为残差图像的均方差。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工业大学,未经哈尔滨工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810265760.3/1.html,转载请声明来源钻瓜专利网。