[发明专利]基于HOG特征人体感知分类器的训练方法在审
申请号: | 201410308775.5 | 申请日: | 2014-07-01 |
公开(公告)号: | CN104091178A | 公开(公告)日: | 2014-10-08 |
发明(设计)人: | 游萌 | 申请(专利权)人: | 四川长虹电器股份有限公司 |
主分类号: | G06K9/66 | 分类号: | G06K9/66;G06K9/00 |
代理公司: | 成都虹桥专利事务所(普通合伙) 51124 | 代理人: | 刘世平 |
地址: | 621000 四*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 hog 特征 人体 感知 分类 训练 方法 | ||
技术领域
本发明涉及人体感知技术,特别涉及基于HOG特征的人体感知分类器。
背景技术
对象检测与识别是计算机视觉中一个重要的研究领域,它是指计算机按照人的思维能够进行人类对特定对象的检测及识别活动。其应用极其广泛,快速而准确的对象检测与识别技术是现代信息处理技术中的重要组成部分。由于信息量近年来急剧地增长,我们也迫切的需要有合适的对象检测以及识别技术能够让人们从大量的信息中寻找出自己所需要的信息。图像检索及文字检索都属于这一类别。此外,对象检测与识别技术还广泛的用于公安以及交通监管等系统,人脸的检测与识别能够使计算机做到在实时的情况下快速的检测出场景中的人脸并对其实施跟踪。人脸的识别系统可以用于公安、边防以及数据库的快速查找等诸多领域。而人体的检测与识别则可以用于各种需要的安全控制场合进行实时的监控需要。此外,车辆的检测与识别能够在箭筒监管部门发挥重要的作用,对车牌的检测以及识别是智能交通管理系统中的重要组成部分。而文字的检测与识别系统则是新闻等重要咨询系统中进行信息检索的基本条件。综上,检测与识别技术是计算机视觉的重要组成部分。
HOG特征使用比较广泛,在当前的计算机视觉应用中,HOG特征主要作为行人检测,由于计算速度快,但检测准确度等方面却存在缺陷。而且不同行人的体型姿势,衣着光照等方面都有着极大的变化,加上复杂的背景等存在技术难点。在家电系统等嵌入式平台受存储空间资源限制的条件下,也不可能使用类似PC机等CPU资源。所以有必要研究针对人体感知方面处理数据快速的算法,增加程序的适应性,进而对应用程序提出了更高的要求。
在计算机视觉行业内,越来越多的针对某一种物体的检测而专门设计分类器。在为提升处理速度和准确度方面,HOG特征和cascade的组合更是相得益彰。
发明内容
本发明的目的是为了提供一种快速准确基于HOG特征人体感知分类器的学习训练方法。
为达到上述目的,本发明提供一种基于HOG特征人体感知分类器的训练方法,包括如下步骤:
A.创建训练样本集并对训练样本集中的样本进行HOG特征提取,设定分类器需要达到的强度值,所述训练样本集包括正样本集及负样本集,所述正样本集中的正样本为被检测的目标对象,所述负样本集中的负样本从不包含任何被检测的目标对象信息的源负样本中抽样得到;
B.从正样本训练窗口和负样本的初始训练窗口中得到一个基本分类器,所述正样本训练窗口为检测目标居中的图像,所述负样本的初始化训练窗口从一系列不包含目标对象的图像中随机产生;
C.使用基本分类器对源负样本进行扫描,得到错误样本,所述错误样本为源负样本检测出目标对象的样本,将错误样本添加到负样本集中,同正样本集一起对基本分类器进行训练,;
D.重复步骤C,得到分层次的弱分类器,将不同层次的弱分类器进行级连得到强分类器,强分类器达到设定的分类器需要达到的强度值时结束训练。
优选地,所述正样本的尺寸大小为48*48像素。
较佳地,所述正样本及负样本的数量均在12000个以上。
较佳地,步骤D中,重复步骤C的次数至少为50次。
具体地,所述正样本只包括人体肩膀以上部位的图像,每一个正样本只包含一个目标对象。
本发明的有益效果是:通过上述的方法,可以在不占用大量内存空间的情况下,实现人体检测分类器的训练,可以促进基于HOG特征在人体图像检测技术在智能家电中的应用,提高了家电的智能性,提升了用户体验。
具体实施方式
本发明所要解决的技术问题主要针对可视对象检测问题,依赖计算机视觉的角度出发构建一个针对行人的检测分类器。分类器的构建是使用梯度直方图(Histogram of Oriented Gradient:HOG),在该分类器的设计主要针对人体上半身图像和更加贴近自然实景的行人图像数据采集过程。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川长虹电器股份有限公司,未经四川长虹电器股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201410308775.5/2.html,转载请声明来源钻瓜专利网。