[发明专利]一种基于增强极速学习的卷积神经网络训练方法在审
申请号: | 201710717240.7 | 申请日: | 2017-08-21 |
公开(公告)号: | CN107609634A | 公开(公告)日: | 2018-01-19 |
发明(设计)人: | 郑丽颖;沈柳笛;张文武;初妍 | 申请(专利权)人: | 哈尔滨工程大学 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 150001 黑龙江省哈尔滨市南岗区*** | 国省代码: | 黑龙江;23 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明公开了一种基于增强极速学习的卷积神经网络训练方法,属于人工神经网络领域。其特征在于构建传统的卷积神经网络,以三层感知机作为全连接层;利用传统的训练算法预训练卷积神经网络模型;当网络的损失函数小于预先设定好的阈值时,停止预训练;将所有样本输入预训练好的卷积神经网络模型,记录误分类的样本;保持预训练的模型结构和参数不变,根据误分类样本和极速学习算法微调全连接层的隐层与输出层之间的连接权值。本发明克服了传统CNN存在的问题,具有学习速度快、网络泛化能力强的特点。 | ||
搜索关键词: | 一种 基于 增强 学习 卷积 神经网络 训练 方法 | ||
【主权项】:
一种基于增强极速学习的卷积神经网络训练方法,其特征在于,包含以下步骤:步骤一 构建传统的卷积神经网络,以三层感知机作为全连接层;其中,全连接层的输入层为第CM卷积层提取的特征,隐层的激活函数为连续可微函数,输出层的激活函数为线性函数;步骤二 利用传统的训练算法和全部训练样本训练卷积神经网络模型;步骤三 设th为损失函数阈值,当网络的损失函数小于th时,停止训练,得到预训练的网络模型;步骤四 将所有样本输入预训练好的卷积神经网络模型,判断每个样本的预分类结果;将误分类的样本放入集合S;步骤五 将合集S中的样本依次输入预训练的卷积神经网络模型,得到卷积层CM的输出,并构建矩阵inELM:inELM=[OutCM(X1) OutCM(X2) … OutCM(XN)]其中,Xi表示集合S中的第i个样本,i=1,2,…N,N表示集合S中的样本个数,OutCM(Xi)表示样本Xi对应的CM层输出;步骤六 将矩阵inELM作为MLP的输入,并相应的MLP隐层输出为hELM;步骤七 更新MLP隐层与输出层之间的连接权矩阵:βnew=β+hELM+T其中,β为预训练的MLP隐层与输出层之间的连接权值矩阵,βnew为更新之后的隐层与输出层之间的连接权值矩阵,hELM+为hELM的广义逆矩阵,T为集合S中的样本对应的期望输出;步骤八 用βnew替代MLP中隐层与输出层之间的连接权值矩阵β,保持预训练的卷积神经网络其他参数和网络结构不变,得到训练好的卷积神经网络模型。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于哈尔滨工程大学,未经哈尔滨工程大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710717240.7/,转载请声明来源钻瓜专利网。