[发明专利]语音处理方法及装置、存储介质及处理器有效
申请号: | 201710633042.2 | 申请日: | 2017-07-28 |
公开(公告)号: | CN109308896B | 公开(公告)日: | 2022-04-15 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 江苏汇通金科数据股份有限公司 |
主分类号: | G10L15/16 | 分类号: | G10L15/16;G10L15/26 |
代理公司: | 苏州国卓知识产权代理有限公司 32331 | 代理人: | 李微 |
地址: | 215000 江苏省苏州市昆*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音 处理 方法 装置 存储 介质 处理器 | ||
本发明公开了一种语音处理方法及装置、存储介质及处理器。其中,该方法包括:获取预设时间段内多个时刻的语音向量;利用预设语音模型对多个时刻的语音向量进行处理,得到与多个时刻的语音向量相对应的多个文本信息,其中,预设语音模型基于预先存储的多个时刻的参数向量对多个时刻的语音向量进行处理;输出多个文本信息。本发明解决了现有技术中的语音处理方法的处理效率低的技术问题。
技术领域
本发明涉及数据处理领域,具体而言,涉及一种语音处理方法及装置、存储介质及处理器。
背景技术
自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现用户与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。
目前常用的自然语言处理方法有:条件随机场CRF,隐马尔科夫模型HMM,递归神经网络模型RNN和长短期记忆模型LSTM等,但是,为了提高处理精度,需要增加模型深度,导致处理复杂度高,处理效率低。
针对现有技术中的语音处理方法的处理效率低的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种语音处理方法及装置、存储介质及处理器,以至少解决现有技术中的语音处理方法的处理效率低的技术问题。
根据本发明实施例的一个方面,提供了一种语音处理方法,包括:获取预设时间段内多个时刻的语音向量;利用预设语音模型对多个时刻的语音向量进行处理,得到与多个时刻的语音向量相对应的多个文本信息,其中,预设语音模型基于预先存储的多个时刻的参数向量对多个时刻的语音向量进行处理;输出多个文本信息。
进一步地,预设语音模型包括:语音处理模型和参数矩阵,参数矩阵用于预先存储多个时刻的参数向量,语音处理模型用于基于多个时刻的参数向量对多个时刻的语音向量进行处理,得到与多个时刻的语音向量相对应的多个文本信息。
进一步地,利用预设语音模型对多个时刻的语音向量进行处理,得到与多个时刻的语音向量相对应的多个文本信息,包括:根据读操作从参数矩阵中获取多个时刻的第一参数向量;利用多个时刻的第一参数向量对语音处理模型进行修正,得到修正后的语音处理模型;利用修正后的语音处理模型对多个时刻的语音向量进行处理,得到多个文本信息。
进一步地,在利用修正后的语音处理模型对多个时刻的语音向量进行处理,得到多个文本信息的同时,上述方法还包括:利用修正后的语音处理模型,得到多个时刻的第二参数向量;根据写操作将多个时刻的第二参数向量写入参数矩阵。
进一步地,利用修正后的语音处理模型,得到多个时刻的第二参数向量,包括:利用修正后的语音处理模型对多个时刻的第一参数向量进行更新,得到多个时刻的第二参数向量。
进一步地,在利用预设语音模型对多个时刻的语音向量进行处理,得到与多个时刻的语音向量相对应的多个文本信息之前,上述方法还包括:建立初始预设模型,初始预设模型包括:语音处理模型和初始参数矩阵;获取训练数据,其中,训练数据包括:多个训练语音向量,以及每个训练语音向量相对应的文本信息;根据训练数据对初始预设模型进行训练,得到预设语音模型。
进一步地,根据训练数据对初始预设模型进行训练,得到预设语音模型包括:将训练数据输入语音处理模型,得到预设参数向量;通过写操作将预设参数向量写入初始参数矩阵,得到参数矩阵。
进一步地,语音处理模型为LSTM模型,参数矩阵为记忆矩阵。
进一步地,根据预设语音模型的处理能力,确定预设时间段。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于江苏汇通金科数据股份有限公司,未经江苏汇通金科数据股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710633042.2/2.html,转载请声明来源钻瓜专利网。