[发明专利]一种基于低比特脉冲神经网络的图像数据分类方法和装置有效
申请号: | 202210261211.5 | 申请日: | 2022-03-17 |
公开(公告)号: | CN114332545B | 公开(公告)日: | 2022-08-05 |
发明(设计)人: | 张徽;时拓;刘琦;高丽丽;王志斌;顾子熙;崔狮雨;李一琪 | 申请(专利权)人: | 之江实验室 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 杭州浙科专利事务所(普通合伙) 33213 | 代理人: | 孙孟辉 |
地址: | 311100 浙江省杭*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 比特 脉冲 神经网络 图像 数据 分类 方法 装置 | ||
本发明提供一种基于低比特脉冲神经网络的图像数据分类方法和装置,该方法包括:步骤一,获取开源图像数据集,分为训练集和测试集,其中数据集包括计算机图像数据和神经形态数据;步骤二,构建包含隐含层的脉冲神经网络模型,再改进LIF神经元,构建基于改进后的LIF神经元的脉冲神经网络模型;步骤三,通过构建训练损失函数并进行各项梯度求解,对脉冲神经网络模型进行训练;步骤四,在训练集上使用梯度下降参数更新方法进行脉冲神经网络模型优化训练;步骤五,利用构建并训练好的脉冲神经网络模型,对测试集进行识别,得到预测的数据分类标签,实现分类任务。本发明的方法具有更低的功耗,同时与全精度网络模型有近似的准确率。
技术领域
本发明属于机器学习、图像处理及神经形态计算技术领域,涉及一种基于低比特脉冲神经网络的图像数据分类方法和装置。
背景技术
在最近几年,脉冲神经网络SNN模型在图像数据分类的任务中由于计算上的低功耗优势受到了越来越多的关注。受启发于人脑中真实的神经元,拥有生物可行性的SNN模型的神经元之间通过发放脉冲信号进行信息传递,从而支持基于事件的计算方式,这能够在神经形态芯片上通过更少的能量消耗来实现。SNN模型可以处理计算机图像数据,同时也可以高效地处理神经形态的图像视觉数据。神经形态数据是模仿人类的视觉感知的一种基于脉冲事件的数据,可以通过神经形态照相机生成。然而,现有SNN网络中判断神经元是否发送脉冲的阈值设置均相同,导致网络脉冲发送速率可调节性较差。
尽管SNN在计算上与深度神经网络相比具有低功耗的优势,但其仍需要比较准确的浮点小数计算与存储开销,这对于计算资源有限、功耗预算紧张的神经形态芯片来说是非常具有挑战性的。为了将低功耗的SNN模型部署在芯片中,需要通过将SNN网络的权重由浮点小数转换为定点整数,实现较低比特计算和存储模型的权重,从而实现在资源受限的神经形态芯片上部署SNN模型。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出了一种基于低比特脉冲神经网络的图像数据分类方法和装置,应用于计算机图像数据和神经形态的图像视觉数据的分类,其具体技术方案如下:
一种基于低比特脉冲神经网络的图像数据分类方法,包括以下步骤:
步骤一,获取开源图像数据集,分为训练集和测试集,其中数据集包括计算机图像数据和神经形态数据;
步骤二,构建包含隐含层的脉冲神经网络模型,再改进LIF神经元,构建基于改进后的LIF神经元的脉冲神经网络模型;
步骤三,通过构建训练损失函数并进行各项梯度求解,对脉冲神经网络模型进行训练;
步骤四,在训练集上使用梯度下降参数更新方法进行脉冲神经网络模型优化训练;
步骤五,利用构建并训练好的脉冲神经网络模型,对测试集进行识别,得到预测的数据分类标签,由此实现图像数据分类。
进一步的,所述步骤一,具体为:所述开源图像数据集采用MNIST数据集和N-MNIST数据集,分别分出各自的训练集和测试集,其中MNIST数据集为计算机图像数据, N-MNIST数据集为神经形态数据。
进一步的,所述构建包含隐含层的神经网络模型,具体包括以下步骤:
步骤2.1,构建网络模型的输入层,将输入数据模拟量编码成脉冲时间序列;
步骤2.2,构建网络模型的隐含层,构建L组脉冲神经元作为不同的隐含层,其中输入层与隐含层、隐含层与隐含层、隐含层与输出层之间的连接均代表任意的线性操作,包括全连接的神经网络层、卷积神经网络层;
步骤2.3,构建网络模型的输出层,网络的输出层采用不会发放脉冲和重置膜电位的神经元,其数量与设置的时间步长数量相同;输出层即为网络最后的分类层,输出为:对隐含层的神经元放电量使用初始放电率加权平均,得到隐含层神经元放电率,表达式:,
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于之江实验室,未经之江实验室许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210261211.5/2.html,转载请声明来源钻瓜专利网。