[发明专利]分类模型的训练方法及计算机可读存储介质在审
申请号: | 202210069084.9 | 申请日: | 2022-01-21 |
公开(公告)号: | CN114118301A | 公开(公告)日: | 2022-03-01 |
发明(设计)人: | 刘国清;杨广;王启程;郑伟;刘德富;杨国武 | 申请(专利权)人: | 深圳佑驾创新科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62;G06N3/08 |
代理公司: | 深圳市倡创专利代理事务所(普通合伙) 44660 | 代理人: | 罗明玉 |
地址: | 518049 广东省深圳市福田区梅林街*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 分类 模型 训练 方法 计算机 可读 存储 介质 | ||
本发明提供了一种分类模型的训练方法,包括:根据第一数据集训练第一分类模型以得到预测分类模型,其中,第一数据集为有标签数据的集合;将第二数据集输入预测分类模型进行计算以得到预测标签,其中,第二数据集为无标签数据的集合;根据第一数据集和带有预测标签的第二数据集依次循环对第二分类模型进行训练,并更新第二分类模型的参数以得到中间分类模型,直至中间分类模型满足预设条件;以及当中间分类模型满足预设条件时,将满足预设条件的中间分类模型作为目标分类模型。此外,本发明还提供了一种计算机可读存储介质。本发明技术方案有效解决了有标签数据的数量少导致分类模型准确度不高的问题。
技术领域
本发明涉及机器学习技术领域,尤其涉及一种分类模型的训练方法及计算机可读存储介质。
背景技术
深度学习模型在各个领域中已经取得了巨大的成就,特别是有监督学习算法在各种视觉任务中取得了巨大成功。深度学习一般是从大量已标注的训练样本中学习一个模型用于给未见过的样本预测一个尽可能正确的标签。然而在许多实际应用场景中,人工标注大规模的训练样本需要耗费巨大的人力和物力。因此,许多研究聚焦于半监督学习,即在只有部分已标注样本和大量未标注样本的情况下学习的一个模型。
发明内容
本发明提供了一种分类模型的训练方法及计算机可读存储介质,用于解决有标签数据的数量少导致分类模型准确度不高的问题。
第一方面,本发明实施例提供一种分类模型的训练方法,所述分类模型的训练方法包括:
根据第一数据集训练第一分类模型以得到预测分类模型,其中,所述第一数据集为有标签数据的集合;
将第二数据集输入所述预测分类模型进行计算以得到预测标签,其中,所述第二数据集为无标签数据的集合;
将所述第一数据集和带有预测标签的第二数据集两者之一输入第二分类模型中训练,并更新所述第二分类模型的参数以得到中间分类模型,将两者之另一输入所述中间分类模型中训练,并更新所述中间分类模型的参数;
判断所述中间分类模型是否满足预设条件;
当所述中间分类模型没有满足预设条件时,将所述第一数据集和带有预测标签的第二数据集两者之一输入所述中间分类模型中训练,并更新所述中间分类模型的参数,将两者之另一输入所述中间分类模型中训练,并更新所述中间分类模型的参数,直至所述中间分类模型满足预设条件;以及
当所述中间分类模型满足预设条件时,将满足预设条件的中间分类模型作为目标分类模型。
第二方面,本发明实施例提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序指令,所述程序指令可被处理器执行以实现如上所述的分类模型的训练方法。
上述分类模型的训练方法及计算机可读存储介质,根据有标签的第一数据训练第一分类模型以得到预测分类模型,利用预测分类模型为无标签的第二数据计算预测标签。根据第一数据集和带有预测标签的第二数据集两者之一训练第二分类模型以得到中间分类模型,再根据两者之另一训练中间分类模型,并按顺序对中间分类模型进行循环训练,直至中间分类模型满足预设条件,得到目标分类模型。利用预测分类模型为无标签的第二数据计算预测标签,根据第一数据集和带有预测标签的第二数据集对第二分类模型进行训练,极大增加了有标签的数据的数量,从而得到具有良好分类能力的目标分类模型,提高了目标分类模型的性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明第一实施例提供的分类模型的训练方法的流程图。
图2为本发明第一实施例提供的分类模型的训练方法的第一子流程图。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳佑驾创新科技有限公司,未经深圳佑驾创新科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210069084.9/2.html,转载请声明来源钻瓜专利网。