[发明专利]一种基于深度学习的复杂公共场景快速行人检测方法在审
申请号: | 201810021283.6 | 申请日: | 2018-01-08 |
公开(公告)号: | CN109002752A | 公开(公告)日: | 2018-12-14 |
发明(设计)人: | 张峰 | 申请(专利权)人: | 北京图示科技发展有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/62;G06T3/40 |
代理公司: | 北京卓唐知识产权代理有限公司 11541 | 代理人: | 龚洁 |
地址: | 100020 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 卷积神经网络 行人检测 方框 公共场景 损失函数 阈值过滤 预测 预处理 测试阶段 测试图像 均方误差 输出预测 网络输出 训练图像 智能监控 交叉熵 置信度 像素 过滤 图像 学习 分类 回归 检测 改进 | ||
1.一种基于深度学习的复杂公共场景快速行人检测方法,其特征在于实现步骤如下:
步骤1、读取ImageNet数据库图片训练所使用的数据库图片,采用双线性插值算法,将其像素大小拉伸或压缩为A×B。
步骤2、使用训练数据库,对卷积神经网络进行基于分类任务的预训练。将调整像素大小的训练数据库图片作为输入,通过网络输出分类结果,与输入图片对应标签进行比较,计算损失函数。最小化损失函数,对卷积神经网络进行预训练。
步骤3、读取特定场景的数据库的图片,采用双线性插值算法,将其像素大小拉伸或压缩为A×B。
步骤4、继承预训练网络所得权值,改变卷积神经网络末端结构,使用特定场景的数据库,针对于行人检测的任务,对神经网络进行调整训练。训练中将特定场景的图像作为输入,将卷积神经网络的输出与对应图片的标签进行运算,计算损失函数。最小化损失函数,训练卷积神经网络。
步骤5、读取公共场景下的行人视频,将视频分解成单个帧,再采用双线性插值算法,将其像素大小拉伸或压缩为A×B。
步骤6、使用训练好的网络,对图片中的行人进行目标检测。将调整好像素大小的待测图片输入到已有网络中,通过卷积神经网络提取图像中目标物体的特征,最后通过两层全连接层输出一个7×7×(2×5)维的张量。该张量表示了卷积神经网络对待测行人所做出的98个预测方框。
步骤7,设定置信度C的阈值C_threshold,对卷积神经网络生成的98个预测方框进行过滤。舍弃置信度C小于设定阈值C_threshold的预测方框。
步骤8,采用非最大抑制对重叠度较高的预测方框进行过滤。当不同预测方框交集部分面积与并集部分面积的比例超过规定的阈值IOU_threshold时,则仅保留置信度C最大的预测方框,而对其它方框进行抑制。保留下的预测方框数据x,y,w,h,C即为检测到的目标行人的空间位置坐标和预测置信度。
2.根据权利要求1所述的一种基于单卷积神经网络的行人检测方法,其特征在于:所述步骤2中,预训练卷积神经网络的过程如下:
步骤i)训练网络使用图1所示网络的前20层卷积层及对应的池化层,再在后面加上一层均值池化层和全连接层。
步骤ii)将转换大小的训练数据库图片224×224个像素所对应的RGB空间的224×224×3维的张量数据作为卷积神经网络的输入,输出为各分类结果的概率yi。
步骤iii)计算网络输出概率yi′与标签概率之间的交叉熵作为损失函数,最小化损失函数loss,对网络进行预训练。
3.根据权利要求1所述的一种基于单卷积神经网络的行人检测方法,其特征在于:所述步骤4中
步骤i)保留预训练网路中前20层卷积层和对应池化层的结构,并继承其对应的权值,在后面增加4层卷积层和2层全连接层,并随机设置初始权值,使其网络结构如图1所示。
步骤ii)网络的最后一层全连接层采用线性激活函数:f(x)=x,而其他的全连接层和卷积层采用带泄露的线性整流激活函数(Leaky ReLu):f(x)=max(x,0.1x)。
步骤iii)训练样本为转化大小的特定场景的数据库的图片及其对应的标签。将图片A×B像素所对应的RGB空间的448×448×3维的张量数据作为卷积神经网络的输入。神经网络的输出为7×7×(2×5)维张量。表示对被测目标所做的98个预测方框。每一个方框有x,y,w,h,C这5个数据。
步骤iv)读取特定场景的数据库对应图片的标签,搜索其中行人目标对应的真实方框数据,计算出与网络输出的预测方框数据x,y,w,h,C相对应的标签数据x′,y′,w′,h′,C′=P×IOU。计算过程中,假想将整张均匀图片划分成7×7个格子,若行人目标真实方框的中心坐标落在某一个格子中,则生成一组标签x′,y′,w′,h′,C′=P×IOU。x′,y′为真实方框中心点的坐标,其值在0~1之间,若行人所在真实方框中心点的坐标在对应格子的左下角,则其值为(0,0),若其在格子的右上角,则其值为(1,1)。w′,h′为真实方框的长和宽,其值在0~1之间,若方框的长或宽对应的像素大小为0,则其值为0,若方框的长或宽对应的像素大小为448,则其值为1。C′=P×IOU,其中P=1,IOU为预测方框x,y,w,h和真实方框x′,y′,w′,h′表示范围的交集与并集面积之比。
步骤v)计算预测值x,y,w,h,C和标签值x′,y′,w′,h′,C′=P×IOU对应的改进均方误差损失函数:
其中λcoord=5,λnoord=0.5,i表示7×7个格子中的第i个,j表示每个格子的2个预测方框中的第j个。若行人目标的中心坐标落在第i个格子的且该格子对应的第j个预测方框与真实行人所在方框有着最大的IOU,则且否则且最小化损失函数loss,对网络进行训练。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京图示科技发展有限公司,未经北京图示科技发展有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810021283.6/1.html,转载请声明来源钻瓜专利网。