[发明专利]基于一致性学习的跨场景持续学习的行人再识别方法及装置在审
申请号: | 202210058995.1 | 申请日: | 2022-01-19 |
公开(公告)号: | CN114419672A | 公开(公告)日: | 2022-04-29 |
发明(设计)人: | 冼宇乔;郑伟诗;葛汶杭;吴岸聪 | 申请(专利权)人: | 中山大学 |
主分类号: | G06V40/10 | 分类号: | G06V40/10;G06V20/52;G06V10/74;G06V10/774;G06V10/82;G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 广州市华学知识产权代理有限公司 44245 | 代理人: | 李斌 |
地址: | 510275 广东*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 一致性 学习 场景 持续 行人 识别 方法 装置 | ||
本发明公开了基于一致性学习的跨场景持续学习的行人再识别方法及装置,方法包括:得到每一个批次的数据的原始特征;将原始特征输入伪任务数据转换模块,分别得到每一个原始特征经过场景风格转换后对应的旧场景特征和新场景特征;在旧场景特征上计算域内和域间跨场景一致性损失函数,进行伪任务身份辨别性学习;计算旧场景特征样本和新场景特征样本的两两相似度,进行伪任务知识蒸馏;把新场景特征输入新场景的分类器后计算交叉熵损失函数,进行身份辨别性学习;计算每一个样本对应的旧场景特征和新场景特征距离,进行跨场景一致性学习。本发明能够在先后学习的多个场景下部署不断更新迭代的模型,从而达到降低训练模型和人工维护的成本的目的。
技术领域
本发明涉及行人重识别的技术领域,具体涉及一种基于一致性学习的跨场景持续学习的行人再识别方法及装置。
背景技术
现有的行人重识别方法大部分都基于深度卷积神经网络(CNN)模型,训练CNN模型通常需要在特定的摄像头监控场景下预先在特定场景的监控区域内从多个不同的摄像头采集视频数据,进行行人检测得到行人图像并人工对图像进行跨摄像头标注。并使标注好的训练数据与随机梯度下降(SGD)法对模型进行有监督的预训练,然后再将模型部署到该场景下。由于不同的视频监控系统的拍摄条件通常差别较大,在某个场景下训练过的模型直接迁移到新的场景进行部署时,识别准确率通常会显著下降。现有的解决方法一般需要在新的场景下重新采集和标注数据对模型进行微调训练(fine-tunining),使得模型能够在新的场景下适应。但是进过微调后的模型,由于使用了和旧场景分布不一致的数据进行增量训练,在旧场景下的识别准确度也会明显下降,这种现象通常叫做深度卷积神经网络的“灾难性遗忘”现象,这种现象使得我们很难获得一个同时在多个场景下都具有比较高的识别准确率的模型,而对每一个场景保留一份独立的模型参数需要比较高的维护成本。
Wu和Gong在2021年提出的GwFReID算法,它是一种针对行人重识别特点设计的持续学习算法。GwFReID基于旧数据集的样本回放的策略,对LwF中的知识蒸馏学习进行了改进,提出了分类连贯性学习、分布连贯性学习和表示连贯性学习,即分别对交叉熵损失函数、特征对比损失函数和三元组损失函数使用了知识蒸馏的技术,可以在持续学习的场景下取得更好的行人重识别性能。
LwF和GwFReID算法能够一定程度上解决数据存储开销大的问题,但是由于他们只保存了少量旧数据集下的样本,在混合新场景的数据训练时只有少量数据来自于旧的场景,数据的比例并不均衡,容易导致两个现象:(1)模型容易在旧场景的训练数据上过拟合,导致在旧场景的泛化性能变差;(2)模型更容易偏向于新的场景,在旧的场景下性能下降,造成新旧场景识别准确率不平衡。从文献中的实验结果上看,LwF和GwFReID模型的识别精度与理想情况下的多任务联合训练仍有较大的差距。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于一致性学习的跨场景持续学习的行人再识别方法及装置,本发明的的行人重识别技术在进行跨场景持续学习下能够降低数据储存成本,缩短模型训练时间,提高模型的泛化能力(即跨场景下的识别精度),进而能够在先后学习的多个场景下部署我们不断更新迭代的模型,而不需要为每一个场景单独训练一个模型,达到降低训练模型和人工维护的成本的目的。
为了达到上述目的,本发明采用以下技术方案:
本发明一方面提供了基于一致性学习的跨场景持续学习的行人再识别方法,包括下述步骤:
将旧场景数据和新场景数据混合,随机抽样后分批次依次并行输入预先设立的旧场景模型和新场景模型,同时得到每一个批次的数据的原始特征;
将原始特征输入伪任务数据转换模块,分别得到每一个原始特征经过场景风格转换后对应的旧场景特征和新场景特征;所述伪任务数据转换模块是将一个来自于场景(s)的行人图像变换到场景(t)的分布下,而身份保持不变,从而得到同一个行人在不同的场景下的风格的训练数据;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中山大学,未经中山大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210058995.1/2.html,转载请声明来源钻瓜专利网。