[发明专利]一种基于双区域学习的地铁站场景行人计数实现方法有效
申请号: | 201610015229.1 | 申请日: | 2016-01-11 |
公开(公告)号: | CN105678268B | 公开(公告)日: | 2020-06-30 |
发明(设计)人: | 何高奇;袁玉波;陈琪;江东旭;阮丹薇 | 申请(专利权)人: | 华东理工大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T7/11 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 200237 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 区域 学习 地铁 场景 行人 计数 实现 方法 | ||
1.一种基于双区域学习的地铁站场景行人计数方法,其特征在于对地铁站监控视频进行行人计数时进行以下步骤:
步骤1,输入监控视频画面集;
步骤2,将监控视频画面分为训练图像集VT和测试图像集VS,分别计算训练图集图片数量t和测试图像集图片数量s;
步骤3,使用ACF行人检测方法检测每张训练图集中图片内的行人,并计算有效区域高度hi;
步骤4,记录每张训练图集中图片内行人在不同高度线上出现的次数ki并且在公式(1)中计算出现的概率;
步骤5,基于步骤3和步骤4的结果通过公式(2)确定此场景的区域划分线高度;
步骤6,将所有图片通过区域划分线划分为两个区域:近视角区域和远视角区域
步骤7,在近视角区域中提取行人个体特征
步骤8,在远视角区域中提取全局图片特征其中角点特征使用Harris角点检测方法,前景区域特征使用multiple cues方法进行提取,纹理特征使用灰度共生矩阵进行数值化描述;
步骤9,使用ACF行人检测方法,基于步骤7中提取的行人个体特征,检测近视角区域中的行人,并计算获得此区域行人数量c=A(x1);
步骤10,使用训练图集中提取的全景图片特征训练基于ELM和高斯过程回归模型的远视角行人数量估计方程(3);
εg(xi2)=int(K(xi2,XG)(K(XG,XG)+a32I)-1(ng-nS)) (3)
步骤11,将测试图像集的近视角区域行人个体特征x1和远视角区域全局图片特征x2通过公式(4)来计算测试图像中行人的数量;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于华东理工大学,未经华东理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201610015229.1/1.html,转载请声明来源钻瓜专利网。
- 上一篇:基于图像检测的面部支付平台
- 下一篇:一种能够自主作业的隧道地质监控装置