[发明专利]语音转写方法和装置、机器人在审
申请号: | 201611265802.0 | 申请日: | 2016-12-30 |
公开(公告)号: | CN108281139A | 公开(公告)日: | 2018-07-13 |
发明(设计)人: | 不公告发明人 | 申请(专利权)人: | 深圳光启合众科技有限公司;深圳光启创新技术有限公司 |
主分类号: | G10L15/16 | 分类号: | G10L15/16;G10L15/26;G10L15/06 |
代理公司: | 北京康信知识产权代理有限责任公司 11240 | 代理人: | 江舟;董文倩 |
地址: | 518000 广东省深圳市南山区南*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 语音信号 卷积神经网络 方法和装置 语音 全序列 转写 人本发明 神经网络 输出文本 文本数据 转写方式 实时性 池化 卷积 机器人 | ||
本发明公开了一种语音转写方法和装置、机器人。其中,该方法包括:获取语音信号的语谱图;将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对整句语音信号进行识别的神经网络;输出文本数据。本发明解决了现有技术中的语音转写方式的实时性不高的技术问题。
技术领域
本发明涉及人工智能领域,具体而言,涉及一种语音转写方法和装置、机器人。
背景技术
人工智能的应用中,语音识别如今取得显著的进步,不管是英文、中文还是其他语种,机器的语音识别准确率在不断上升。其中,语音听写技术的发展最为迅速,目前已广泛在语音输入、语音搜索、语音助手等产品中得到应用。但是语音转写目前还存在一定的难度,由于在产生录音文件的过程中使用者并没有估计到所录音会被用于语音识别,因此相比于语音听写,语音转写面临着方言、说话风格等难点。
卷积神经网络CNN在2012年就被用于语音识别系统,但始终没有大的突破。由于其使用固定长度的帧拼接作为输入,无法看到足够长的语音上下文信息;另一个不足是将CNN作为一种特征提取器,因此所用的卷积层数很少,表达能力有限。
目前最好的语音识别系统采用双向长短时记忆网络(LSTM,LongShort TermMemory),这种网络能够对语音的长时相关性进行建模,但是这一系统存在训练复杂度高、解码时延高的问题,在工业界的实时识别系统中很难应用。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种语音转写方法和装置、机器人,以至少解决现有技术中的语音转写方式的实时性不高的技术问题。
根据本发明实施例的一个方面,提供了一种语音转写方法,包括:获取语音信号的语谱图;将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据;其中,深度全序列卷积神经网络为使用多个卷积层和池化层对对语音信号进行识别的神经网络;输出文本数据。
可选地,每个卷积层和池化层对包括:一个卷积层和一个池化层,且池化层的输入为卷积层的输出。
可选地,通过以下方式获得经训练后的深度全序列卷积神经网络:根据训练数据集对深度全序列卷积神经网络进行训练,得到所述训练后的深度全序列卷积神经网络;其中,所述训练数据集包括:多种语音信号的语谱图,以及与所述多种语音信号对应的多个文本数据。
可选地,将获取的语谱图输入到经训练后的深度全序列卷积神经网络,得到语音信号对应的文本数据包括:利用深度全序列卷积神经网络依次执行以下步骤:对语谱图进行图像识别,得到识别结果;对识别结果进行关键词抽取;基于抽取的关键词在预设的语料库中进行搜索,得到搜索结果;基于搜索结果结合语音信号所对应的领域得到文本数据。
可选地,基于搜索结果结合语音信号所在的领域得到文本数据包括:对搜索结果进行后处理,得到后处理结果;其中,后处理包括:对搜索结果进行排序、分类、筛选和提取;基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,在存在多个解码网络的情况下,基于加权有限状态转换器的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据包括:将多个解码网络进行融合;基于融合后的解码网络,依据后处理结果,在与语音信号所对应的领域内对关键词进行解码,得到文本数据。
可选地,在输出文本数据之后,方法还包括:对输出的文本数据进行分句、分段;删除文本数据中的停顿词、语气词和重复词。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳光启合众科技有限公司;深圳光启创新技术有限公司,未经深圳光启合众科技有限公司;深圳光启创新技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201611265802.0/2.html,转载请声明来源钻瓜专利网。