[发明专利]一种基于多突触连接光脉冲神经网络的语音识别方法在审
申请号: | 202211084465.0 | 申请日: | 2022-09-06 |
公开(公告)号: | CN115602156A | 公开(公告)日: | 2023-01-13 |
发明(设计)人: | 项水英;韩亚楠;张雅慧;郭星星;郝跃 | 申请(专利权)人: | 西安电子科技大学 |
主分类号: | G10L15/06 | 分类号: | G10L15/06;G10L15/16;G06N3/06;G06N3/067;G06N3/08 |
代理公司: | 西安嘉思特知识产权代理事务所(普通合伙) 61230 | 代理人: | 万艳艳 |
地址: | 710071*** | 国省代码: | 陕西;61 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 突触 连接 脉冲 神经网络 语音 识别 方法 | ||
本发明涉及一种基于多突触连接光脉冲神经网络的语音识别方法,包括:步骤1:获取元音数据集作为训练样本;步骤2:建立多突触的光脉冲神经网络模型;步骤3:将训练样本输入至光脉冲神经网络模型中,利用权重更新算法对光脉冲神经网络模型进行训练,得到训练完成的光脉冲神经网络模型;步骤4:利用训练完成的光脉冲神经网络模型实现语音识别。本发明的基于多突触连接光脉冲神经网络的语音识别方法,提高了语音识别的准确率,增强了复杂语音数据的处理能力。
技术领域
本发明属于语音识别技术领域,具体涉及一种基于多突触连接光脉冲神经网络的语音识别方法。
背景技术
智能语音被誉为人工智能皇冠上的“明珠”,随着深度学习技术的突破,大数据技术以及自然语言理解能力的提升,带动了一波产业热潮,除了在教育、客服、电信等传统行业之外,还开辟出了车载、家居、医疗、智能硬件等语音技术应用新天地。随着人工智能的兴起,基于人工神经网络的语音识别技术已经从理论走向市场应用。语音识别本质上是一种基于语音特征参数的模式识别,通过模型训练学习,可以把输入的语音按一定模式进行分类。
脉冲神经网络作为类脑计算的核心领域,被誉为“第三代神经网络模型”,它能够有效模拟生物神经元之间信息随时间连续传递的动力系统。它的脉冲信息传递机制恰好可以弥补深度学习在模拟时间特性上的缺陷。
但是,传统的脉冲神经网络算法为了提高计算效率,采用极为简化的脉冲神经元模型,其只包含一个维度,甚至缺失了产生脉冲的内在机制,不能够有效模拟生物神经网络中脉冲传递以及不应期等特性,降低了网络的复杂度。其次,传统直接训练脉冲神经网络的局部学习算法中,容易遇到参数饱和的问题,权重可能会趋于一个极大或者极小的值,不能稳定收敛。再次,传统脉冲神经网络中包括抑制性和兴奋性神经元及突触,存在负脉冲和负权重信息,然而在光域中,无法有效表达负脉冲信息,因此不能直接应用于光学脉冲神经网络。另外,在实际生物神经网络中,一对神经元之间也可能存在多对连接,而现有的光脉冲神经网络算法中只考虑了单突触连接。上述存在的缺陷均会导致传统脉冲神经网络算法在语音识别过程中识别准确率较低,不能处理复杂的语音数据。
发明内容
为了解决现有技术中存在的上述问题,本发明提供了一种基于多突触连接光脉冲神经网络的语音识别方法。采用基于激光器模型的光脉冲神经元,提供了一种适配于光学硬件平台的算法。本发明要解决的技术问题通过以下技术方案实现:
本发明提供了一种基于多突触连接光脉冲神经网络的语音识别方法,包括:
步骤1:获取元音数据集作为训练样本;
步骤2:建立多突触的光脉冲神经网络模型;
步骤3:将所述训练样本输入至所述光脉冲神经网络模型中,利用权重更新算法对所述光脉冲神经网络模型进行训练,得到训练完成的光脉冲神经网络模型;
步骤4:利用训练完成的光脉冲神经网络模型实现语音识别。
在本发明的一个实施例中,所述步骤2包括:
步骤2.1:根据所述训练样本的特征维度和预设的高斯脉冲个数,确定输入神经元的个数;
步骤2.2:根据所述输入神经元个数以及预设的每个输入神经元到输出神经元的突触个数,确定多突触的光脉冲神经网络模型的突触个数;
步骤2.3:根据所述输入神经元的个数、所述输出神经元的个数和所述突触个数,建立所述多突触的光脉冲神经网络模型。
在本发明的一个实施例中,所述步骤3包括:
步骤3.1:初始化所述多突触的光脉冲神经网络模型的参数;
步骤3.2:将所述训练样本按照预设的高斯脉冲个数进行高斯编码;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于西安电子科技大学,未经西安电子科技大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211084465.0/2.html,转载请声明来源钻瓜专利网。