[发明专利]一种脉冲神经网络间接监督训练方法在审

专利信息
申请号: 202111024733.5 申请日: 2021-09-02
公开(公告)号: CN113902092A 公开(公告)日: 2022-01-07
发明(设计)人: 黄漪婧;吴志刚;沈伟;戴靠山;吴建军;廖光明;卫军名;周林;杨斌;张丁凡;张辉;周成刚;魏莞月;向光明;童波;朱瑞蒙 申请(专利权)人: 四川晟锦汇科技有限公司
主分类号: G06N3/04 分类号: G06N3/04;G06N3/08
代理公司: 北京喆翙知识产权代理有限公司 11616 代理人: 朱学绘
地址: 610000 四川省成都*** 国省代码: 四川;51
权利要求书: 查看更多 说明书: 查看更多
摘要:
搜索关键词: 一种 脉冲 神经网络 间接 监督 训练 方法
【权利要求书】:

1.一种脉冲神经网络间接监督训练方法,包括将人工神经网络ANN转化为脉冲神经网络SNN的方法,其特征在于:所述将人工神经网络ANN转化为脉冲神经网络SNN的方法包括以下步骤:

步骤一:选用ReLU()作为激活函数;

步骤二:将ANN中所有偏置置零之后进行训练;

步骤三:权值定点化。

最终,SNN逻辑网络的生成步骤概括如下:

步骤一:按照设定好的网络结构及超参数,采用BP算法训练ANN网络,得到所有神经元的输入权值;

步骤二:将第二代神经元模型中权值与输入之间的乘加运算转换为第三代神经元模型的加法运算,此加法由脉冲的到达触发,判断脉冲的ID是否与当前神经元连接;

步骤三:将第二代神经元模型中的非线性激活过程,转换为阈值判断,当膜电位大于阈值时,产生新的脉冲并将膜电位置零,否则保持不变;

步骤四:将所有的权重定点化。

2.根据权利要求1所述的一种脉冲神经网络间接监督训练方法,其特征在于:ReLU()激活函数与Sigmoid()和Tanh()不同,ReLU()激活函数的输出为非负值,能够解决激活值为负数的问题。同时,当输入大于0时,ReLU()激活函数是线性的,这一特点能够在一定程度上减轻从ANN到SNN带来的性能损失。

下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川晟锦汇科技有限公司,未经四川晟锦汇科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/pat/books/202111024733.5/1.html,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top