[发明专利]一种稀疏深度神经网络的构造方法在审
申请号: | 202110036712.9 | 申请日: | 2021-01-12 |
公开(公告)号: | CN113191481A | 公开(公告)日: | 2021-07-30 |
发明(设计)人: | 宋艳枝;廖可;王杰;文铭 | 申请(专利权)人: | 合肥黎曼信息科技有限公司 |
主分类号: | G06N3/04 | 分类号: | G06N3/04;G06N3/08 |
代理公司: | 安徽省蚌埠博源专利商标事务所(普通合伙) 34113 | 代理人: | 朱恒兰 |
地址: | 230001 安徽省合肥市高新区创新*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 稀疏 深度 神经网络 构造 方法 | ||
本发明涉及深度学习神经网络技术领域,具体涉及一种稀疏深度神经网络的构造方法,包括以下步骤:S1:通过L1,∞‑权重正则化开发了稀疏深度神经网络空间的系统框架;S2:建立步骤S1中的稀疏深度神经网络空间的Rademacher复杂度;S3:基于步骤S2中的稀疏深度神经网络空间的Rademacher复杂度导出回归问题和分类问题的泛化误差界限;S4:采用易于实现的梯度投影下降算法构造稀疏深度神经网络;这种稀疏深度神经网络的构造方法,建立了基于L1,∞‑权重正则化的包含偏置神经元的神经网络的回归和分类问题的泛化误差边界,采用易于实现的梯度投影下降算法,来实际构造出一种稀疏神经网络。
技术领域
本发明涉及深度学习神经网络技术领域,具体涉及一种稀疏深度神经网络的构造方法。
背景技术
近几年来,深度神经网络成功应用在了很多实际生活中的领域,使其引起了很大的关注。而且随机梯度下降法和图形处理单元在优化方面出现了很多新进展,这使得深度神经网络的训练更易于应用到数百万量级参数的问题。但是,过拟合一直是深度神经网络面临的关键障碍,因为它会导致泛化性能下降。
根据最新研究表明,可以对深度神经网络进行修正,并且不会降低其准确性。而且还有学者的经验表明,诱导稀疏性可以缓解过拟合问题并节省计算资源,而常见的策略是应用引起稀疏性的调节器,例如L0惩罚项或网络中参数的总数。现有的解决过拟合问题的方法包括提前终止、参数范数惩罚(例如L1和L2正则化)、权值共享等等,但是,在现有文献中很少研究稀疏深度神经网络的理论研究。
发明内容
本发明的目的是提供一种稀疏深度神经网络的构造方法,建立了基于L1,∞- 权重正则化的包含偏置神经元的神经网络的回归和分类问题的泛化误差边界,采用易于实现的梯度投影下降算法,来实际构造出一种稀疏神经网络。
为了实现以上目的,本发明采用的技术方案为:一种稀疏深度神经网络的构造方法,包括以下步骤:
S1:通过L1,∞-权重正则化开发了稀疏深度神经网络空间的系统框架;
S2:建立步骤S1中的稀疏深度神经网络空间的Rademacher复杂度;
S3:基于步骤S2中的稀疏深度神经网络空间的Rademacher复杂度导出回归问题和分类问题的泛化误差界限;
S4:采用易于实现的梯度投影下降算法构造稀疏深度神经网络。
进一步的,所述的稀疏深度神经网络规定如下:通过将偏置神经元1附加到原始层,为每个隐藏层构建一个增强层,然后将权重矩阵和偏置向量组合起来以形成一个新矩阵,定义第一层隐藏层为其中
进一步的,所述的深度神经网络的稀疏性可以通过为每个隐藏层的L1,∞范数设置适当的约束来控制,其中s1×s2矩阵A的L1,∞范数定义为
进一步的,定义作为所有满足下列条件的稀疏深度神经网络的集合:(a)包含k个隐藏层;(b)第l层隐藏层的神经元数量为dl,其中l=1,2,...,k,输入的维度为d0,输出维度为dk+1;
(c)其中l=1,2,...,k;(d)的第j列的L1范数由o的第j个元素界定:其中j=1,...,dk+1。
进一步的,定义对输出层没有任何约束的稀疏深度神经网络的集合为:将对问题的理解转换为损失函数L(·,·),其中是样本,k和d分别深度神经网络的深度和宽度,正则化常数c控制稀疏深度神经网络的稀疏性。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥黎曼信息科技有限公司,未经合肥黎曼信息科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110036712.9/2.html,转载请声明来源钻瓜专利网。