[发明专利]神经网络模型训练方法、装置、设备及可读存储介质在审
申请号: | 202310233224.6 | 申请日: | 2023-03-07 |
公开(公告)号: | CN116227577A | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 聂玲;贾翠玲;郝金龙;余泽豪;杨洋 | 申请(专利权)人: | 北京中电普华信息技术有限公司 |
主分类号: | G06N3/084 | 分类号: | G06N3/084;G06N3/04;G06F17/15;G06F17/16 |
代理公司: | 北京集佳知识产权代理有限公司 11227 | 代理人: | 王雨 |
地址: | 100107 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 神经网络 模型 训练 方法 装置 设备 可读 存储 介质 | ||
本申请公开了一种神经网络模型训练方法、装置、设备及可读存储介质,将训练样本输入神经网络模型,得到模型预测的结果,对根据结果及标签计算出的损失函数求二阶导,得到二阶损失函数,利用线性共轭梯度算法对二阶损失函数进行优化,得到目标函数,再基于如下公式:计算梯度下降向量,也即使用了二阶优化算法对模型的参数进行训练调整,直至满足设定的训练结束条件,使神经网络模型能够准确的训练学习,能够处理大量的训练样本,有效地实现神经网络模型通过一个完全通用的优化器来执行,无需任何训练样本的预训练,解决了深度学习中的欠拟合问题,同时使得优化速度更快。
技术领域
本申请涉及机器学习技术领域,更具体地说,涉及一种神经网络模型训练方法、装置、设备及可读存储介质。
背景技术
神经网络模型中的参数的训练学习是机器学习领域中研究最深入的问题之一,关于反向传播算法的研究表明深度神经网络学习中的目标的梯度可以被有效地计算出来,通过在梯度下降过程中使用多重网络权值学习方案以及非线性隐藏单元层可以使得目标梯度的计算得到很高的改善。然而这些传统的研究方法在对于那些具有多层的神经网络情况下表现并不理想,随着训练样本的增多,神经网络的层数增多,训练学习的准确率越来越低,无法准确的训练出神经网络模型的参数,并会导致在训练集上出现拟合欠佳的状况。
发明内容
有鉴于此,本申请提供了一种神经网络模型训练方法、装置、设备及可读存储介质,用于解决现有神经网络模型训练方式,随着训练样本的增多,神经网络的层数增多,训练学习的准确率越来越低,无法准确的训练出神经网络模型的参数,并会导致在训练集上出现拟合欠佳的状况。
为了实现上述目的,现提出的方案如下:
一种神经网络模型训练方法,包括:
获取训练样本和标签;
将所述训练样本输入待训练的神经网络模型,得到所述神经网络模型预测的结果;
根据所述结果及所述标签计算损失函数,对所述损失函数求二阶导,得到二阶损失函数;
利用线性共轭梯度算法对所述二阶损失函数进行优化,得到目标函数f;
基于如下公式计算梯度下降向量d:
其中,θ为所述目标函数f的参数,H为海瑟矩阵,∈为预设的变化率;
基于所述梯度下降向量d调整所述神经网络模型的参数,直至满足设定的训练结束条件。
优选地,基于所述梯度下降向量d调整所述神经网络模型的参数,直至满足设定的训练结束条件,包括:
基于所述梯度下降向量d调整所述神经网络模型的参数,直至满足如下条件:
其中,p为原始最佳搜索方向,B=H(θ)。
优选地,所述利用线性共轭梯度算法对所述二阶损失函数进行优化,得到目标函数f之前,还包括:
基于Newton-Lanczos方法对预设的信任区域半径进行衰减,得到衰减系数λ;
基于如下公式计算对角矩阵M:
其中,α为预设的指数,D为所述训练样本的数量,I为单位矩阵,yi为第i个训练样本的标签;
所述利用线性共轭梯度算法对所述二阶损失函数进行优化,得到目标函数f,包括:
基于所述对角矩阵M利用线性共轭梯度算法对所述二阶损失函数进行优化,得到目标函数f。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京中电普华信息技术有限公司,未经北京中电普华信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310233224.6/2.html,转载请声明来源钻瓜专利网。
- 上一篇:单层取薄片装置和自动贴布片装置
- 下一篇:用于图像处理的装置、方法和存储介质