[发明专利]一种用于构造高维卷积加速神经网络的方法在审
申请号: | 201811533296.8 | 申请日: | 2018-12-14 |
公开(公告)号: | CN109740745A | 公开(公告)日: | 2019-05-10 |
发明(设计)人: | 代龙泉;张雪利;唐金辉 | 申请(专利权)人: | 南京理工大学 |
主分类号: | G06N3/063 | 分类号: | G06N3/063;G06N3/04 |
代理公司: | 南京理工大学专利中心 32203 | 代理人: | 朱宝庆 |
地址: | 210094 *** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明提供了一种用于构造高维卷积加速神经网络的方法,包括:将现在流行的高斯卷积加速操作SBS解释为神经网络的卷积层操作;扩展张量分解(CP分解)到gCP分解提供相应的g‑卷积;进一步扩展gCP层到级联的gCP层作为gHT分解,提高网络的表现力;选择激活函数g,并计算g和sum函数的梯度,通过反向传播算法对AccNet进行训练;在训练有素的AccNet上提取splatting、blurring和slicing操作,构成任意高维卷积的最优加速算法。 | ||
搜索关键词: | 卷积 高维 分解 加速神经 反向传播 激活函数 加速操作 加速算法 神经网络 网络 高斯 级联 算法 | ||
【主权项】:
1.一种用于构造高维卷积加速神经网络的方法,其特征在于,包括以下步骤:步骤1,输入待加速的高维卷积;步骤2,构造加速神经网络AccNet的输入;步骤3,将CP分解扩展到gCP分解并提供相应的g‑卷积,构成加速神经网络AccNet;步骤4,扩展gCP分解到级联gCP分解;步骤5,计算函数sum和激活函数g的梯度并对网络进行训练;步骤6,从训练有素的AccNet中提取高维卷积的加速算法。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京理工大学,未经南京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201811533296.8/,转载请声明来源钻瓜专利网。
- 上一篇:一种分层神经网络查询推荐方法及装置
- 下一篇:运算方法、装置及相关产品