[发明专利]一种基于retinex算法和卷积神经网络的行人再识别方法有效
申请号: | 201710044905.2 | 申请日: | 2017-01-20 |
公开(公告)号: | CN106897673B | 公开(公告)日: | 2020-02-21 |
发明(设计)人: | 韩光;段朦;李晓飞;余小意 | 申请(专利权)人: | 南京邮电大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06N3/04;G06N3/08 |
代理公司: | 南京知识律师事务所 32207 | 代理人: | 李湘群 |
地址: | 210003 江苏*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 retinex 算法 卷积 神经网络 行人 识别 方法 | ||
本发明公开了一种基于retinex算法和卷积神经网络的行人再识别方法,首先提取视频数据库中的视频帧序列,构建卷积神经网络并训练出行人网络模型,利用训练好的网络模型将行人从视频帧序列中检测出来,用retinex算法将检测出的行人进行图像增强,最后将增强后的行人输入卷积神经网络中提取行人不同层次的深度特征,通过卷积神经网络最后一层的softmax分类器进行分类,得到最终匹配相似度。本发明充分考虑了现实场景中光照变化,阴影覆盖等问题,在识别之前引入retinex增强算法,模仿人类视觉系统,使图像更接近于人眼所看到的样子,有效地提高了识别效果。采用端到端的行人再识别方法,用同一个卷积神经网络将行人检测与行人识别结合在一起,解决了行人标签的对齐问题。
技术领域
本发明属于模式识技术领域,具体涉及一种基于retinex算法和卷积神经网络的行人再识别方法。
背景技术
行人再识别是计算机视觉领域最近几年研究的热点内容,传统的行人再识别将行人检测和行人识别分开,先使用DPM或ACF算法检测出行人,对检测出的行人包围框加以裁剪用于之后的行人识别,这种方法难以投入现实场景的使用,并且行人检测区域和行人识别区域难以实现完全对齐,导致行人识别低下。
行人识别现在一种流行的做法是使用卷积神经网络提取行人对的图片特征进行特征匹配,它采用反向传播算法从大量的数据样本中获得一定的规律,模仿人脑的神经网络,对未知事物做出预测。传统的神经网络具有很强的非线性拟合能力,可以映射任意复杂的非线性关系,具有很强的鲁棒性和记忆能力,利用神经网络提取的低层特征,如颜色纹理空结构特征等,这些特征易于计算并且相对可靠,但是这些底层特征没有较好的语义表达能力,跟行人的外观的关系并不紧密。当出现光照变化以及行人旋转角度变化时,这些特征往往不能很好的表达出行人的特征,从而造成识别时出现偏差。
发明内容
本发明针对现有技术的不足,提出一种基于retinex算法和卷积神经网络的行人再识别方法,简化了行人识别操作的复杂性,更利于现实场景应用,并且很好地克服了光照视角等多种的因素的影响,大大提高了行人的识别率。
为达到上述目的,本发明的具体技术方案为一种基于retinex算法和卷积神经网络的行人再识别方法,具体包括以下步骤:
步骤101,采集视频图像,截取视频帧;
步骤102,训练CNN网络模型,进行行人的检测;
步骤103,利用retinex算法对检测出的行人包围框进行图像增强,对图像的Intensity数据进行Retinex处理,然后再把数据根据原始的RGB的比例映射到每个通道,最大程度地减少光照和行人表面反射光的影响;
步骤104,提取卷积特征,经过多次卷积和降采样,提取fc6层的特征;
步骤105,将从两台摄像机得到的行人特征进行特征匹配,并得出识别率。
进一步,上述CNN神经网络中含有两个softMax层,一层用于行人检测时候选区域的预测分类,另一层用于对不同行人进行识别。
上述步骤103中,利用retinex算法对检测出的行人进行图像增强,具体包含以下步骤:
步骤201,计算输入行人图像的模糊半径I(x,y);
步骤201,计算行人图像按某种尺度进行高斯模糊的图像数据L(x,y);
步骤203,将以上两个步骤得到的值的对数值相减,得到图像排除光照阴影和反射光后的数据logR(x,y);
步骤204,将logR(x,y)量化到0-255的像素值,输出经过增强后的行人图像。
上述步骤102和104中,所用的检测和行人特征的提取使用同一个卷积神经网络,用同一个神经网络进行行人的检测与识别,具体为:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710044905.2/2.html,转载请声明来源钻瓜专利网。