[发明专利]一种分类模型的训练方法及其装置、计算机服务器有效
申请号: | 201810412797.4 | 申请日: | 2018-05-03 |
公开(公告)号: | CN108664999B | 公开(公告)日: | 2021-02-12 |
发明(设计)人: | 王乃岩;樊峻崧 | 申请(专利权)人: | 北京图森智途科技有限公司 |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 101300 北京市顺*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 分类 模型 训练 方法 及其 装置 计算机 服务器 | ||
本发明公开一种分类模型的训练方法及其装置、计算机服务器,以解决现有技术通过半监督学习技术训练分类模型计算效率低、适用范围窄的技术问题。方法包括:构建初始分类模型,初始分类模型包含分类任务相同的至少一个单模态分类模型,每个单模态分类模型对应的模态数据训练集包含有标签训练数据和无标签训练数据;基于对齐每个单模态分类模型的模态数据训练集中的有标签训练数据和无标签训练数据的特征编码分布的方法,对初始分类模型进行训练以得到目标分类模型。本方案不仅能够提高分类模型训练的效率而且适用范围更广。
技术领域
本发明涉及深度学习领域,特别涉及一种分类模型的训练方法、一种分类模型的训练装置和一种计算机服务器。
背景技术
目前,训练神经网络通常需要大量的标注样本数据,首先需要采集大量的样本数据,然后通过人工对采集到的样本数据进行标注得到用于训练神经网络的标注样本数据,采集和标注需要较高的人力成本和时间成本。
为解决该技术问题,目前采用包含有标签训练数据和无标签训练数据的训练数据集对神经网络进行训练,无需大量的标签训练数据,从而能够缓解对大量有标签数据的依赖,以解决现有技术的标注样本数据成本和时间成本较高的问题。
目前已有的深度学习中的半监督学习技术,主要是在输入及特征构建过程中引入随机噪声或各种随机变换,同时约束神经网络的输出应当具有鲁棒性、不变性,以达到利用无标签训练数据进行辅助训练的目的,例如,Takeru Miyato等人使用对抗样本、MehdiSajjadi等人使用随机变换、Samuli Laine等人使用随机噪声引入扰动。
然而,现有的半监督学习技术存在以下技术缺陷:为从无标签训练数据中得到监督信息,需要对同一组训练样本进行多次前向计算,效率较低;同时,只能针对单一模态数据进行学习训练,适用范围窄。
发明内容
鉴于上述问题,本发明提供一种分类模型的训练方法及其装置、计算机服务器,以解决现有技术通过半监督学习技术训练分类模型计算效率低、适用范围窄的技术问题。
本发明实施例,第一方面,提供一种分类模型的训练方法,该方法包括:
构建初始分类模型,所述初始分类模型包含分类任务相同的至少一个单模态分类模型,其中每个单模态分类模型对应的模态数据训练集包含有标签训练数据和无标签训练数据;
基于对齐每个单模态分类模型的模态数据训练集中的有标签训练数据和无标签训练数据的特征编码分布的方法,采用各单模态分类模型对应的模态训练数据集对所述初始分类模型进行训练以得到目标分类模型。
本发明实施例,第二方面,一种分类模型的训练装置,包括:
模型构建单元,用于构建初始分类模型,所述初始分类模型包含分类任务相同的至少一个单模态分类模型,其中每个单模态分类模型对应的模态数据训练集包含有标签训练数据和无标签训练数据;
训练单元,用于基于对齐每个单模态分类模型的模态数据训练集中的有标签训练数据和无标签训练数据的特征编码分布的方法,采用各单模态分类模型对应的模态训练数据集对所述初始分类模型进行训练以得到目标分类模型。
本发明实施例,第三方面,提供一种计算机服务器,包括存储器,以及与所述存储器通信连接的一个或多个处理器;
所述存储器中存储有可被所述一个或多个处理器执行的指令,所述指令被所述一个或多个处理器执行,以使所述一个或多个处理器实现前述分类模型的训练方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京图森智途科技有限公司,未经北京图森智途科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810412797.4/2.html,转载请声明来源钻瓜专利网。