[发明专利]基于强化联邦域泛化的图像分类模型训练方法及系统在审
申请号: | 202211539820.9 | 申请日: | 2022-12-03 |
公开(公告)号: | CN115731424A | 公开(公告)日: | 2023-03-03 |
发明(设计)人: | 李雅文;管泽礼;薛哲 | 申请(专利权)人: | 北京邮电大学 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06N20/00 |
代理公司: | 北京金咨知识产权代理有限公司 11612 | 代理人: | 王晓雅 |
地址: | 100876 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 强化 联邦 泛化 图像 分类 模型 训练 方法 系统 | ||
本申请提供一种基于强化联邦域泛化的图像分类模型训练方法及系统,方法包括:本申请基于强化学习设计了特征去相关策略,将样本加权转化为在联邦学习客户端间共享的参数化策略。通过经验回放,补充特征全局信息,在联邦学习的过程中从全局的角度对特征去相关,各客户端基于加权后的样本训练模型。使训练后的全局模型学习到特征与标签的根本关联,泛化到未知域图像数据。本申请能够针对使联邦学习中的图像分类模型训练过程中的在未知域图像数据进行域具有泛化能力,能够防止图像分类模型在联邦训练过程中学习到数据中的虚假关联,能够有效提高图像分类模型训练过程的有效性及可靠性,进而能够提高应用图像分类模型进行图像分类的有效性及准确性。
技术领域
本申请涉及图像处理技术领域,尤其涉及基于强化联邦域泛化的图像分类模型训练方法及系统。
背景技术
联邦学习是用于进行图像分类的有效方式,联邦学习可以在图像数据不出本地的条件下,采用多方协作的方式,学习各个客户端本地图像数据中隐含的知识,共同训练一个有效的图像分类模型。在实际应用中,客户端数据除了类别的不均衡,还存在着数据风格不同得情况,每种风格可以被看作一种域,每个客户端数据的域分布可能是不同的。这种分布的偏移会导致模型退化,主要是模型学习到了特征与标签之间的虚假关联,而这种虚假关联本质上是由与类别标签不相关特征和相关特征之间的关联导致的。针对这种域分布偏移问题,研究人员提出了域泛化技术。它可以在测试集域未知的情况下,训练一个泛化能力强的模型,根本上是学习一个不随着域改变的规则。
由于,特征各维度变量之间的相关性的存在会使小的误差膨胀到任意大,从而导致不同域的测试数据分类性能不稳定。现有的域泛化方式通常采用基于样本加权的方式,通过去除相关特征和不相关特征之间的相关性来实现分布外泛化,但是这种数据全局感知方法,由于保存的特征和权重信息不能在各客户端之间分享,无法有效应用到联邦学习中,而其他能够应用到联邦学习的域泛化方式也无法适用于图像分类任务,进而无法保证基于联邦学习的图像分类模型的训练过程的有效性及可靠性。
发明内容
鉴于此,本申请实施例提供了基于强化联邦域泛化的图像分类模型训练方法及系统,以消除或改善现有技术中存在的一个或更多个缺陷。
本申请的一个方面提供了一种基于强化联邦域泛化的图像分类模型训练方法,包括:
根据本地历史图像数据随机选取对应的补充数据,作为特征去相关策略的全局视角补充;
以本训练批次数据作为局部信息,补充数据作为全局视角补充,在历史图像数据权重固定的条件下,学习一种消除样本特征各维度之间的相关性的样本加权策略;
应用根据强化特征去相关策略学习模块对图像数据加权,并基于加权后的图像训练特征提取器和分类器,以得到更新后的图像分类模型的模型参数;
将所述模型参数发送至自身所在的联邦学习系统中的服务器,以使该服务器对该模型参数和其接收的其他多个模型参数进行聚合以得到所述图像分类模型当前的总模型参数。
在本申请的一些实施例中,在所述根据本地历史图像数据随机选取对应的补充数据,作为特征去相关策略的全局视角补充之前,还包括:
接收自身所在的联邦学习系统中的服务器发送的基于强化联邦域泛化的图像分类模型的总模型参数;
根据所述总模型参数对本地的基于强化联邦域泛化的图像分类模型进行初始化处理;
自历史图像样本中选取预设数量的已设有类型标签的历史图像样本以作为当前的目标图像样本,形成包含有各个所述目标图像样本及对应的类型标签的历史图像数据。
在本申请的一些实施例中,所述根据本地历史图像数据随机选取对应的补充数据,作为特征去相关策略的全局视角补充,包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京邮电大学,未经北京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211539820.9/2.html,转载请声明来源钻瓜专利网。