[发明专利]一种基于判别感知融合的行人再识别方法有效
| 申请号: | 201910060407.6 | 申请日: | 2019-01-22 |
| 公开(公告)号: | CN109784288B | 公开(公告)日: | 2023-01-06 |
| 发明(设计)人: | 张重;司统振;刘爽 | 申请(专利权)人: | 天津师范大学 |
| 主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V10/764;G06N3/04 |
| 代理公司: | 北京中政联科专利代理事务所(普通合伙) 11489 | 代理人: | 陈超 |
| 地址: | 300387 *** | 国省代码: | 天津;12 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 判别 感知 融合 行人 识别 方法 | ||
1.一种基于判别感知融合的行人再识别方法,其特征在于,所述方法包括以下步骤:
步骤S1,利用预训练深度学习模型确定行人图像特征深度学习模型;
步骤S2,在训练集中随机选取P个行人图像样本作为一个新的数据源,重复该随机选取过程M次,得到M个新的数据源;
步骤S3,对得到的M个数据源进行预处理,并利用预处理后的M个数据源,分别独立地训练所述行人图像特征深度学习模型,得到M个训练好的行人图像特征深度学习模型;
步骤S4,基于训练好的M个行人图像特征深度学习模型,获取每个训练行人图像样本的M个特征向量,然后提取每个特征向量相同维度的元素值形成相应训练行人图像样本的新的特征向量;
步骤S5,将所述训练行人图像样本同一维度形成的新特征向量输入到支持向量机中,学习得到融合权重,用以对于M个特征向量进行融合得到最终特征表达;
步骤S6,将测试集中的测试行人图像样本输入至训练好的M个行人图像特征深度学习模型中提取得到所述测试行人图像样本的M个特征向量,结合所述融合权重得到所述测试行人图像样本的最终特征表达;
步骤S7,基于获得的测试行人图像样本的最终特征表达,在测试集中搜索与所述最终特征表达相匹配的行人图像作为目标图像,得到行人识别结果;
其中,所述步骤S6包括以下步骤:
步骤S61,将测试行人图像样本进行预处理后输入至训练好的M个行人图像特征深度学习模型中,得到M个特征向量;
步骤S62,对第n个支持向量机的法向量中的元素进行归一化操作;
步骤S63,重新组合N个法向量中的第m个元素获得第m个行人图像特征深度学习模型对应的融合权重;
步骤S64,将M个特征向量中的每个特征向量乘以对应的融合权重并相加,得到所述测试行人图像样本的最终特征表达。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11,获取预训练的深度学习模型,并对其使用的模型结构进行参数初始化,得到初始深度模型结构;
步骤S12,在所述初始深度模型结构后增加卷积层和全连接层;
步骤S13,对于全连接层的输出进行类别预测,得到图像特征属于k类别的类别预测概率p(k);
步骤S14,基于所述类别预测概率,利用交叉熵损失函数对于所述图像特征进行学习优化,得到所述行人图像特征深度学习模型。
3.根据权利要求2所述的方法,其特征在于,所述预测概率p(k)表示为:
其中,ak表示全连接层中输出的第k个神经元的激活值,aj表示全连接层中输出的第j个神经元的激活值,C为训练集中行人的总类别数目。
4.根据权利要求2所述的方法,其特征在于,所述交叉熵损失函数L表示为:
其中,如果获取的图像特征属于k类,那么q(k)=1,否则q(k)=0,C为训练集中行人的总类别数目。
5.根据权利要求1所述的方法,其特征在于,所述步骤S3包括以下步骤:
步骤S31,将M个数据源分别进行预处理;
步骤S32,将预处理之后的数据源用相同的方法分别独立地训练所述行人图像特征深度学习模型,得到M个训练好的行人图像特征深度学习模型。
6.根据权利要求5所述的方法,其特征在于,所述步骤S31中对数据源进行预处理包括:将行人图像的大小裁剪为预设大小,把所述行人图像所有的像素值按比例缩小至预设范围内,将所述行人图像中的每个像素值减去所述训练集中行人图像的像素平均值,再除以所述训练集中行人图像的像素方差。
7.根据权利要求1所述的方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41,基于训练好的M个行人图像特征深度学习模型,对于第p个训练行人图像样本可提取得到M个特征向量;
步骤S42,基于获得的训练行人图像样本的M个特征向量,提取这M个特征向量相同维度处对应的元素值形成行人图像新的特征向量,最终每幅训练行人图像样本得到N个新特征向量。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于天津师范大学,未经天津师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910060407.6/1.html,转载请声明来源钻瓜专利网。





