[发明专利]基于混合簇中心标签学习的行人重识别方法和存储介质有效
申请号: | 202110669267.X | 申请日: | 2021-06-17 |
公开(公告)号: | CN113255573B | 公开(公告)日: | 2021-10-01 |
发明(设计)人: | 闫超;黄俊洁 | 申请(专利权)人: | 成都东方天呈智能科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 成都君合集专利代理事务所(普通合伙) 51228 | 代理人: | 尹玉 |
地址: | 610041 四川省成都市自由贸易试验*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 混合 中心 标签 学习 行人 识别 方法 存储 介质 | ||
本发明公开了基于混合簇中心标签学习的行人重识别方法和存储介质,首先使用有标签数据初始化网络模型参数,并计算出初始的簇中心标签,然后利用网络模型提取无标签数据的特征信息;再计算无标签数据的特征信息与簇中心之间的距离并筛选出预设比例的伪标签数据,且剩余数据为模糊标签数据,并生成簇中心标签作为指导标签,更新存储器中的簇中心标签;把伪标签数据和模糊标签数据按照多次少量的方式加入到训练样本中,重新训练深度神经网络模型。本发明利用聚类的方法将无标签的数据分为伪标签数据和模糊标签数据,并计算出簇中心,然后使用多种类别的簇中心进行模型分类优化,充分利用到多方面的信息,有效提高行人重识别方法的精度。
技术领域
本发明属于行人重识别的技术领域,具体涉及一种基于混合簇中心标签学习的行人重识别方法和存储介质。
背景技术
行人重识别(Re-ID)是一种图像检索技术,检索图像或视频中是否存在特定的行人。基于域自适应的行人重识别是通过有标签的源域数据和无标签的目标域数据进行训练,从而在目标域上检测特定的行人。基于无监督域自适应的行人重识别与基于域自适应的行人重识别的方法类似,区别在于源域数据没有标签。
现有的基于UDA的Re-ID的训练方法通常有以下两阶段:(1)利用有标签的源域数据进行有监督的预训练;(2)在预训练的基础上,利用无标签的目标域数据及其聚类产生的伪标签进行微调,使预训练网络可以适应于在目标域数据,并通过伪标签来捕捉样本间的关系。
目前,UDA的Re-ID任务可以使用伪标签类和域自适应类方法,由于伪标签类可以获得更好的性能,并且基于聚类的伪标签方法较为有效,所以本发明采用基于聚类的伪标签算法来检测行人。尽管基于伪标签的Re-ID方法已经取得了极大的成功,但是由于域差异和令人不满意的聚类性能,并且没有充分挖掘所有有价值的信息。基于伪标签的方法存在以下三个缺陷:
(1)由于源域图像只用于预训练,在目标域微调过程中忽略了标记的源域图像。源域图像具有真实准确的标签,应当被充分的利用;
(2)由于聚类过程中会产生模糊类别的离群点,这些离群点无法分配伪标签,在训练过程中丢弃了这些离群点,从漏掉了其余有价值的图像信息;
(3)每种类别的样本数量不同,在训练过程中会出现更新比例不一致的问题,影响识别性能,具有泛化性差的问题。
因此,迫切需要构建一种利用混合簇中心标签学习的行人重识别的方案,利用离群点的信息,以充分挖掘所有有价值的信息,从而提高模型的准确性。
发明内容
本发明的目的在于提供一种基于混合簇中心标签学习的行人重识别方法和存储介质,旨在解决上述问题。
本发明利用聚类的方法将无标签的数据分为伪标签数据和模糊标签数据,并计算出簇中心,然后使用多种类别的簇中心进行模型分类优化,充分利用到多方面的信息,增强模型特征学习过程,有效提高行人重识别方法的精度。
本发明主要通过以下技术方案实现:
一种基于混合簇中心标签学习的行人重识别方法,包括以下步骤:
步骤S100:收集行人重识别训练数据集,并将训练数据集分为有标签数据样本和无标签数据样本;
步骤S200:首先使用有标签数据初始化深度神经网络模型参数,并计算出初始的簇中心标签存入存储器中,然后利用深度神经网络模型提取无标签数据的特征信息;
步骤S300:再利用多种簇中心标签生成模块计算无标签数据的特征信息与簇中心之间的距离并筛选出预设比例的伪标签数据,且剩余数据为模糊标签数据,并为伪标签数据和模糊标签数据生成簇中心标签作为指导标签,更新存储器中的簇中心标签;
步骤S400:最后把伪标签数据和模糊标签数据按照多次少量的方式加入到训练样本中,重新训练深度神经网络模型;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于成都东方天呈智能科技有限公司,未经成都东方天呈智能科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110669267.X/2.html,转载请声明来源钻瓜专利网。