[发明专利]神经网络模型训练的方法和装置在审
申请号: | 201911302307.6 | 申请日: | 2019-12-17 |
公开(公告)号: | CN112990424A | 公开(公告)日: | 2021-06-18 |
发明(设计)人: | 孙海鸣 | 申请(专利权)人: | 杭州海康威视数字技术股份有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08;G06K9/62 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 李珂珂 |
地址: | 310051 浙*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 训练 方法 装置 | ||
本申请公开了一种神经网络模型训练的方法和装置,属于机器学习技术领域。所述方法包括:获取新增样本集;将所述新增样本集输入目标神经网络模型,得到所述目标神经网络模型中至少一个候选分割层输出的特征数据集,其中,所述候选分割层为所述目标神经网络模型中的网络层;确定每个候选分割层输出的特征数据集的聚类程度,在所述候选分割层中确定出满足预设条件的聚类程度对应的目标分割层;基于所述新增样本集对所述目标分割层之后的网络层进行训练。采用本申请,可以提高神经网络模型的训练效率。
技术领域
本申请涉及机器学习技术领域,特别涉及一种神经网络模型训练的方法和装置。
背景技术
神经网络模型可以高效的完成诸如目标检测、目标分类等任务,因此在安防、交通、工业生产等各个领域被广泛使用。如果想要得到一个可以较为准确的实现特定功能的神经网络模型,需要在建立神经网络模型之后,使用大量样本对其进行训练。对于神经网络模型的训练,较为常用的一种方式为增量训练,即训练神经网络模型所使用的样本不是一次提供的,而是分为多次提供。分批次对神经网络模型进行训练。
目前,采用增量训练的方式训练神经网络模型时,每次获取到新增样本时,要使用新增样本对神经网络模型进行训练,调整神经网络中各网络层的参数。
在实现本申请的过程中,申请人发现相关技术至少存在以下问题:
神经网络模型中网络层较多时,每次获取到新增样本时,都要对整个神经网络模型中的各网络层的参数进行调整,训练效率较低。
发明内容
为了解决相关技术的问题,本申请实施例提供了一种神经网络模型训练的方法和装置。所述技术方案如下:
第一方面,提供了一种神经网络训练的方法,所述方法包括:
获取新增样本集;
将所述新增样本集输入目标神经网络模型,得到所述目标神经网络模型中至少一个候选分割层输出的特征数据集,其中,所述候选分割层为所述目标神经网络模型中的网络层;
确定每个候选分割层输出的特征数据集的聚类程度,在所述候选分割层中确定出满足预设条件的聚类程度对应的目标分割层;
基于所述新增样本集对所述目标分割层之后的网络层进行训练。
可选的,所述获取新增样本之前,还包括:
根据所述目标神经网络模型中各网络层的位置,在所述目标神经网络模型中确定出所述候选分割层。
可选的,所述根据所述目标神经网络模型中各网络层的位置,在所述目标神经网络模型中确定出所述候选分割层,包括:
在所述目标神经网络模型中的网络层中,确定出网络连接层,作为所述候选分割层,其中,所述网络连接层连接所述目标神经网络模型,如果将所述网络连接层在所述目标神经网络模型中去除,则所述目标神经网络模型分为独立的两部分。
可选的,所述确定每个候选分割层输出的特征数据集的聚类程度,在所述候选分割层中确定出满足预设条件的聚类程度对应的目标分割层,包括:
对于每个候选分割层,根据所述新增样本集中各新增样本所属的类别,确定所述候选分割层输出的特征数据集中每个特征数据所属的类别,每个类别的特征数据组成所述类别的特征数据子集;
对于每个类别的特征数据子集,确定对应的特征均值;
计算每个类别的特征数据子集中每个特征数据与所述特征数据子集对应的特征均值之间的聚类距离;
基于每个类别的特征数据子集中每个特征数据与所述特征数据子集对应的特征均值之间的聚类距离,和所述类别的特征数据的数目,确定所述类别的特征数据子集对应的第一聚类距离均值;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州海康威视数字技术股份有限公司,未经杭州海康威视数字技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911302307.6/2.html,转载请声明来源钻瓜专利网。