[发明专利]一种笑声检测方法及装置有效

专利信息
申请号: 201610755283.X 申请日: 2016-08-29
公开(公告)号: CN106356077B 公开(公告)日: 2019-09-27
发明(设计)人: 谢湘;徐利强 申请(专利权)人: 北京理工大学
主分类号: G10L25/63 分类号: G10L25/63;G10L15/06
代理公司: 北京同达信恒知识产权代理有限公司 11291 代理人: 黄志华
地址: 100081 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明实施例公开了一种笑声检测方法及装置,该方法用于电子设备,该方法包括:针对待检测语音信号,将所述待检测语音信号划分为多个语音帧,并获取每个语音帧的基因频率及多维语音特征参数;根据预先训练完成的笑声检测模型及获取的每个语音帧的基因频率及多维语音特征参数,预测每个语音帧是否为笑声帧;识别与所述当前的语音帧相邻的第一设定数量的语音帧中,预测结果为笑声帧的语音帧的数量;当所述数量大于设定的数量阈值时,将所述当前的语音帧确定为笑声帧。由于在本发明实施例中对于语音中每一帧的检测引入与其相邻的设定数量的多帧进行投票辅助判决,提高了笑声检测的准确性,方便用户及时准确的获取多媒体文件中的笑声信息。
搜索关键词: 一种 笑声 检测 方法 装置
【主权项】:
1.一种笑声检测方法,其特征在于,应用于电子设备,该方法包括:针对待检测语音信号,将所述待检测语音信号划分为多个语音帧,并获取每个语音帧的基因频率及多维语音特征参数;根据预先训练完成的笑声检测模型及获取的每个语音帧的基因频率及多维语音特征参数,预测每个语音帧是否为笑声帧;识别与当前的语音帧相邻的第一设定数量的语音帧中,预测结果为笑声帧的语音帧的数量;当所述数量大于设定的数量阈值时,将所述当前的语音帧确定为笑声帧。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201610755283.X/,转载请声明来源钻瓜专利网。

同类专利
  • 基于语音识别的通信服务方法、装置、计算机设备及存储介质-201910605732.6
  • 杨一凡;徐国强 - 深圳壹账通智能科技有限公司
  • 2019-07-05 - 2019-11-12 - G10L25/63
  • 本申请涉及数据分析领域,在通话时及时准确的注入干预,以引导通话人通话。具体公开了一种基于语音识别的通信服务方法、装置、计算机设备及存储介质,该方法包括:获取第一终端对应的第一音频和第二终端对应的第二音频;对第一音频和第二音频进行语音识别以得到对话文本数据;对对话文本数据进行识别,以获取通话场景;对第一音频进行识别,以获取第一终端对应的第一人的情绪,以及对第二音频进行识别,以获取第二终端对应的第二人的情绪;根据通话场景和第一人的情绪生成并向第一终端发送用于提示第一人调整情绪的第一提示信息;根据通话场景和第二人的情绪生成并向第一终端发送用于提示第一人调整对话策略以应对第二人情绪的第二提示信息。
  • 一种基于深度学习的狗叫情感识别方法及装置-201610709581.5
  • 居一;刘美丽;刘家铭 - 上海索洛信息技术有限公司
  • 2016-08-23 - 2019-11-12 - G10L25/63
  • 本发明公开了一种基于深度学习的狗叫情感识别方法,包括:基于狗的叫声设计叫声存储层、端点检测层、带注意力模块的前馈深度神经网络模型、卷积神经网络模型、线性集成模型;叫声信号经存储、端点检测后计算MFCC特征,训练带注意力模块的前馈深度神经网络模型,判断狗叫声和非狗叫声;计算狗叫信号的MFCC特征和Mel Filterbank特征,交叉输入训练带注意力模块的前馈深度神经网络模型和卷积神经网络模型,将产生的四个模型线性集成,识别狗叫的十种情感,并将结果可视化。此外,本发明还提供了一种基于深度学习的狗叫情感识别转装置,本装置可以实时监测狗叫的感情变化,且能够远程显示其感情状态。
  • 基于情绪分析的业务处理方法、装置、设备及存储介质-201910537349.1
  • 陈娟;傅婧;黄忆丁;张鹭;钱尼丽 - 深圳壹账通智能科技有限公司
  • 2019-06-20 - 2019-10-25 - G10L25/63
  • 本发明提供一种基于情绪分析的业务处理方法、装置、设备及存储介质,即在接收到终端发送的业务办理请求时,获取目标用户目标语音信息,并将所述目标语音信息转换为对应的文本信息,基于预设情绪识别模型、所述目标语音信息和文本信息,确定所述目标用户的情绪类别;基于所述文本信息和所述情绪类别,确定所述目标用户对应的业务处理流程以及目标服务话术;播报所述目标服务话术,并根据所述业务处理流程,指导所述目标用户完成对应的目标业务。本发明根据用户语音信息确定用户的情绪类别,然后确定对应的业务处理流程和目标服务话术,然后指导所述目标用户完成对应的目标业务,提升业务办理效率,提升用户体验。
  • 基于语音的资源配置方法及系统-201810145892.2
  • 孟超峰;朱以师;程心琳;郭华洋;李继鹏;刘兴菊;乔培蕾;叶孝璐;郑威 - 口碑(上海)信息技术有限公司
  • 2018-02-12 - 2019-10-25 - G10L25/63
  • 本发明公开了一种基于语音的资源配置方法及系统,涉及电子信息领域,该方法包括:接收并分析用于资源配置活动的语音输入内容;根据分析结果确定与语音输入内容相对应的情感语意信息的信息类型;根据预设的资源配置活动的匹配规则,确定与情感语意信息的信息类型相对应的资源配置概率;根据资源配置概率确定是否为语音输入内容相对应的用户配置资源。根据该方法,能够充分地结合用户输入的语音内容的情感语意来为用户分配资源,从而丰富了资源配置活动的配置方式,活跃了资源配置时的气氛,用户体验较高。
  • 一种基于集成深度信念网络的语音情感识别方法-201610590174.7
  • 文贵华;黄驹斌 - 华南理工大学
  • 2016-07-25 - 2019-10-18 - G10L25/63
  • 本发明公开了一种基于集成深度信念网络的语音情感识别方法,步骤如下:S1、获取深度信念网络分类器,其中该深度信念网络分类器包括M个深度信念网络模型以及M个深度信念网络模型输出端共同连接的分类器;所述M个深度信念网络模型及M个深度信念网络模型输出端共同连接的分类器经过语音情感识别数据库数据集训练后得到深度信念网络分类器;S2、获取待测语音信号的特征向量;S3、在测试时,将待测语音信号的特征向量输入步骤S1获取到的深度信念网络分类器中,获得语音情感类别。本发明方法具有语音情感识别准确率高的优点,并且减少了语音情感特征提取对人的依赖性,能够能识别出多种语言的语音情感。
  • 婴儿哭声检测方法、装置及计算机可读存储介质-201910465989.6
  • 蒋慧军 - 平安科技(深圳)有限公司
  • 2019-05-28 - 2019-10-11 - G10L25/63
  • 本发明涉及一种人工语音语义技术领域,揭露了一种婴儿哭声检测方法,包括:利用放置在离婴儿预设距离范围内的婴儿音频监测器,采用PCM数据流的形式,收集婴儿实时的音频数据信号;对所述婴儿实时的音频数据信号进行分帧处理,得到分帧音频数据信号,计算所述分帧音频数据信号的基音频率,并根据所述基音频率判断所述婴儿是否处于哭声状态;当判断婴儿处于哭声状态时,通过终端推送服务,将所述的哭声信息推送到预设用户终端,并将所述的哭声信息保存到云端中。本发明还提出一种婴儿哭声检测装置以及一种计算机可读存储介质。本发明实现了婴儿哭声的自动检测与判断。
  • 一种语音信号特征融合的方法-201910556520.3
  • 左靖东;况鹏;范振;詹佳丽;黎宁 - 深圳市壹鸽科技有限公司
  • 2019-06-25 - 2019-10-11 - G10L25/63
  • 本发明公开了一种新型的语音信号特征融合的方法,包括如下步骤:步骤1、模型框架搭建;步骤2、神经网络设计;步骤3、音频特征表示和提取。本发明把CNN变体和LSTM变体并行融合成一种新的混合神经网络,并结合Attention机制提取出对最终情感影响最大的信号特征,最终得到能更准确且快速分类情感的音频情感向量,泛化能力强,结构清晰,易于与其他模块集成与分离,而且克服了传统的语音信号特征不能有效融合的问题。
  • 语音处理方法以及装置-201910492654.3
  • 徐世超;徐浩;吴明辉 - 秒针信息技术有限公司
  • 2019-06-06 - 2019-09-27 - G10L25/63
  • 本发明公开了一种语音处理方法以及装置。其中,该语音处理方法包括:通过获取第一用户和第二用户的语音信息;根据所述语音信息分析出所述第一用户的当前需求以及所述当前需求的情绪,其中,所述当前需求和/或所述当前需求的情绪用于指示所述第一用户的当前需求是否需要在第一预定时间内处理;将所述当前需求上报至服务后台,从而实现了餐厅服务可以根据用户的当前需求和/或当前需求的情绪进行调整,进而提高餐厅中的服务质量,进一步提高餐厅的好评口碑。本发明解决了现有技术中,无法根据用户的当前需求或者用户的当前需求的情绪有效的为用户提供服务的技术问题。
  • 一种笑声检测方法及装置-201610755283.X
  • 谢湘;徐利强 - 北京理工大学
  • 2016-08-29 - 2019-09-27 - G10L25/63
  • 本发明实施例公开了一种笑声检测方法及装置,该方法用于电子设备,该方法包括:针对待检测语音信号,将所述待检测语音信号划分为多个语音帧,并获取每个语音帧的基因频率及多维语音特征参数;根据预先训练完成的笑声检测模型及获取的每个语音帧的基因频率及多维语音特征参数,预测每个语音帧是否为笑声帧;识别与所述当前的语音帧相邻的第一设定数量的语音帧中,预测结果为笑声帧的语音帧的数量;当所述数量大于设定的数量阈值时,将所述当前的语音帧确定为笑声帧。由于在本发明实施例中对于语音中每一帧的检测引入与其相邻的设定数量的多帧进行投票辅助判决,提高了笑声检测的准确性,方便用户及时准确的获取多媒体文件中的笑声信息。
  • 基于情绪检测的智能贷后催收方法及装置-201910513444.8
  • 周广益;祝焕峰 - 上海指旺信息科技有限公司
  • 2019-06-13 - 2019-09-20 - G10L25/63
  • 本发明实施例公开一种基于情绪检测的智能贷后催收方法及装置,其中方法包括如下步骤:基于情绪检测模型识别被催收对象的语音数据,确定被催收对象的情绪话语信息,在智能语音话术库中选择与情绪话语信息相匹配的模板催收语音,其中,模板催收语音的语音内容和语音情绪与情绪话语信息相匹配;将被催收对象的特定信息添加至模板催收语音生成特定催收语音,输出特定催收语音,与被催收对象进行智能对话。采用本发明,可以实现类似真人的智能电催过程,避免各种人为因素导致的催收中断,提高电话催收的效果和催收效率。
  • 基于多粒度动静态融合特征的语音情感识别方法、装置、系统及存储介质-201910496244.6
  • 李海峰;徐聪;马琳;薄洪健;丰上;陈婧;李洪伟;王子豪;孙聪珊 - 深圳航天科技创新研究院
  • 2019-06-10 - 2019-09-17 - G10L25/63
  • 本发明提供了一种基于多粒度动静态融合特征的语音情感识别方法、装置、系统及存储介质,该语音情感识别方法包括如下步骤:第一步,帧计算步骤:以帧为单位计算出每一帧的韵律学特征、谱相关特征及声音质量特征;第二步,段粒度特征的提取步骤:通过统计计算得到整句语料的大粒度静态全局特征,同时利用高斯窗对在时序上相邻的帧特征进行卷积,得到多粒度时变动态特征。本发明的有益效果是:本发明提出多粒度动静态特征融合情感语音分析技术,对语音从三个不同的粒度进行特征的提取,从而得到多粒度时变动态特恒,使得特征既能刻画说话人的总体语音特征,又能描述语音情感特征随时间的变化,让提取的特征更加有效。
  • 情绪识别方法、设备及计算机可读存储介质-201910679895.9
  • 阿德旺;李彤;金大鹏;钟王攀 - 深圳智慧林网络科技有限公司
  • 2019-07-25 - 2019-09-17 - G10L25/63
  • 本发明公开一种情绪识别方法、设备及计算机可读存储介质。其中,所述情绪识别方法包括以下步骤:获取用户发出的语音信息,对所述语音信息进行分析得到文本特征和语调特征;将所述文本特征与文本数据库匹配,得到文本匹配结果;将所述语调特征与语调数据库匹配,得到语调匹配结果;根据所述文本匹配结果与所述语调匹配结果分析得到用户的情绪。通过将文本特征与语调特征拆分开来,并通过文本匹配结果与语调匹配结果综合分析,得出语音信息的真实情绪,判定准确,不易出现错误。
  • 一种演唱情感识别方法及装置-201610517375.4
  • 蔡智力;李洪福 - 福建星网视易信息系统有限公司
  • 2016-07-02 - 2019-09-06 - G10L25/63
  • 本申请公开了一种演唱情感识别方法及装置,其中所述提取待训练演唱音频的情感特征,训练得到情感识别模型;所述情感特征包括声音信号特征和曲谱特征;提取待识别演唱音频的情感特征;将待识别演唱音频的情感特征输入情感识别模型,识别出待识别演唱音频的情感。本实施例相较于现有的语音情感识别和音乐情感识别,本实施例根据包括声音信号特征和曲谱特征的情感特征获得的情感识别模型能够根据曲谱特征和声音信号特征识别出对应演唱者的演唱情感,针对同一首歌曲,能够依据不同演唱者识别出对应演唱的情感,更为准确地识别出演唱者的情感。
  • 一种基于语音识别的情感分析系统-201910352436.X
  • 李剑峰 - 湖南检信智能科技有限公司
  • 2019-04-29 - 2019-08-23 - G10L25/63
  • 本发明公开了一种基于语音识别的情感分析系统,系统管理模块,用于人员设置和考核指标设置,所述人员设置包括基本信息设置、部门信息设备和权限信息设置中的一种或多种;考核指标设置用于对被考核人员的考核成绩指标进行设置;数据来源模块,用于执行流程:当话务员接听电话后,系统将用户输入的语音进行保存,然后系统通过语音信号预处理,情感特征提取,以及将用户的语音与建立的语音情感模板库中的情感模板进行模式匹配,将识别分析出来的结果进行数据的保存。本发明应用于通话场景,可以保证通话质量,提高客户满意度。
  • 一种语音转换方法、装置及移动终端-201610350035.7
  • 张涛 - 努比亚技术有限公司
  • 2016-05-24 - 2019-08-23 - G10L25/63
  • 本发明公开了一种语音转换方法、装置及移动终端,在接收到语音信息后,通过对语音信息进行识别,将语音信息转换成对应的文本信息,然后根据文本信息从表情库中调用对应的表情符号,将文本信息转换成对应的表情符号并进行显示,其有益效果是使得用户在使用移动终端的过程中,可直接将接收到的语音信息以表情符号的形式进行显示,直观的表达用户的情绪,也增加了聊天的趣味性。同时,也使得用户不受环境因素的影响,能时刻关注到重要信息,相应的,也避免了用户长期使用单一的语音聊天模式,极大程度的提升了用户体验。
  • 基于重要性权重支持向量机分类器的语音情感识别方法-201610969948.7
  • 黄永明;吴奥;章国宝 - 东南大学
  • 2016-11-04 - 2019-08-20 - G10L25/63
  • 本发明公开了一种基于重要性权重支持向量机分类器的语音情感识别方法,包括训练样本与测试样本偏差的量化,重要性权重系数模型的建立以及重要性权重系数为基础的SVM的建立。该方法在重要性权重系数的基础上量化训练样本与测试样本的偏差,从而在分类器层面进行偏差调整。本发明通过构建针对情感分类中训练样本与测试样本存在偏差的问题的重要性权重系数模型,量化语音样本中训练样本与测试样本的偏差,利用基于重要性权重系数模型的SVM分类器,在分类器层面通过调整分类超平面来进行偏差调整,提高了语音情感识别的准确度以及稳定性。
  • 基于特征的话语码本选择-201780079428.1
  • 郭寅一;E·维瑟 - 高通股份有限公司
  • 2017-11-28 - 2019-08-09 - G10L25/63
  • 一种设备包含话语处理引擎,所述话语处理引擎经配置以接收对应于话语的数据并且以确定与所述话语相关联的第一特征是与参考特征相差至少阈值量。所述设备进一步包含响应于所述话语处理引擎的选择电路。所述选择电路经配置以基于所述第一特征与所述参考特征相差至少阈值量从多个话语码本之中选择特定话语码本。所述特定话语码本与所述第一特征相关联。此第一特征是基于所述用户的情绪、所述用户的环境和所述用户的估计的年龄或距离麦克风的所述用户的估计的距离的。
  • 一种端到端的语音情感识别的方法和系统-201910423250.9
  • 滕炜;倪俊辉;孙佳伟;席晓燕 - 焦点科技股份有限公司
  • 2019-05-21 - 2019-08-06 - G10L25/63
  • 本发明公开了一种端到端的语音情感识别的方法和系统,其特征在于,包括语音数据音素特征提取;语音数据倒谱特征提取;音素向量序列和倒谱特征以文件为单位进行对齐,作为输入,利用深度神经网络进行端到端的语音情感识别模型训练;模型部署时,针对任意输入的语音数据的重采样和有效语音段检测。使用上述特征提取流程和识别模型,可以针对语音数据端到端的进行识别,效率更高,预测更精准。
  • 语音情绪交互方法、计算机设备和计算机可读存储介质-201810078883.6
  • 王慧;余世经;朱频频 - 上海智臻智能网络科技股份有限公司
  • 2018-01-26 - 2019-08-02 - G10L25/63
  • 本发明实施例提供了一种语音情绪交互方法、计算机设备和计算机可读存储介质,解决了现有技术中的语音交互方式无法分析出用户消息的深层次意图以及无法提供更人性化的交互体验的问题。该方法包括:根据用户语音消息的音频数据和文本内容获确定情绪识别结果;根据用户语音消息的文本内容进行意图分析,得到对应的基本意图信息;以及根据情绪识别结果和基本意图信息确定对应的交互指令;获取情绪识别结果包括:提取用户语音消息的音频特征向量;将用户语音消息的音频特征向量与多个情绪特征模型进行匹配;将相匹配的情绪特征模型所对应的情绪分类作为用户语音消息的情绪分类。
  • 一种利用婴儿哭声进行情感分析的系统、方法和装置-201910227535.5
  • 陈丹;徐滢 - 成都品果科技有限公司
  • 2019-03-25 - 2019-07-30 - G10L25/63
  • 本发明属于深度学习技术领域,具体涉及一种利用婴儿哭声进行情感分析的系统、方法和装置;哭声检测模块,训练数据样本,得到检测模型,使用该检测模型检测输入的待检测声音,判断输入的声音是否为婴儿哭声;哭声分析模块,训练数据样本,得到分析模型,使用该分析模型对检测到的婴儿哭声做情感分类;模型更新模块,上传标记为识别错误的声音段及对应的类别标签,同时上传用户当前使用的分类模型;利用用户上传的声音数据和原有的训练数据,微调用户上传的分类模型;下载训练好的新模型,替换原先的模型。具有便携、识别准确率高和适用性广的优点。
  • 一种基于性别感知的语音情感识别方法-201910186313.3
  • 王龙标;党建武;张林娟;郭丽丽 - 天津大学
  • 2019-03-12 - 2019-07-23 - G10L25/63
  • 本发明公开一种基于性别感知的语音情感识别方法,利用性别信息的性别感知特征:分布式性别特征和性别导向特征。并将性别感知特征和语谱图融合成组合特征,用CNN‑BLSTM网络从组合特征中学习高层次的深度特征并做情感分类。主要步骤有:语音分段、特征准备、特征融合、特征提取以及分类。本发明的性别感知特征和现有特征相比,能够有效地利用性别的信息。性别感知的语音情感识别方法能有效地提高语音情感识别的准确性。
  • 语音情感识别方法、问答方法及计算机设备-201910333653.4
  • 贾红红;胡风硕 - 京东方科技集团股份有限公司
  • 2019-04-24 - 2019-07-23 - G10L25/63
  • 本公开提供了一种语音情感识别方法、一种问答方法、一种计算机设备及一种计算机可读存储介质。所述语音情感识别方法可以包括,对语音信号进行预处理;基于预设的特征集合从预处理后的语音信号中提取该特征集合中的特征的值;以及由分类器基于所提取的特征的值识别所述语音信号的情感类别。所述分类器包括多个子分类器,其中由分类器基于所述特征的值识别所述语音信号的情感类别包括由所述多个子分类器基于所述特征的值识别所述语音信号的情感类别。
  • 一种语音情感分析系统-201910352425.1
  • 李剑峰 - 湖南检信智能科技有限公司
  • 2019-04-29 - 2019-07-23 - G10L25/63
  • 本发明公开了一种语音情感分析系统,包括语音心理分析模块,用于通过人说话语音进行实时或音视频文件分析,获得被测试者说话片段的多种心理参数,所述心理参数包括害怕、排斥、冲突、期待、压力、兴奋、逻辑、比率、概率、分心、犹豫、认知、紧张、坏感、想象、思考、潜意识、潜在情绪中的一种或多种,并基于此给出综合研判分析结果。本发明可以对任何渠道获得的音频、视频进行分类记录和分析,还可以进行独立的语音情绪的分析和联合内容分析。
  • 话语状态确定装置及方法-201610709387.7
  • 香村纱友梨;外川太郎;大谷猛 - 富士通株式会社
  • 2016-08-23 - 2019-07-19 - G10L25/63
  • 本发明提供了一种话语状态确定装置及方法。该话语状态确定装置包括平均反馈语频率估计单元、反馈语频率计算单元以及确定单元。平均反馈语频率估计单元基于第一讲话者的语音信号和第二讲话者的语音信号来估计平均反馈语频率,该平均反馈语频率表示在从第二讲话者的语音信号的语音开始时间至预定时间的时间段中第二讲话者的反馈语频率。反馈语频率计算单元基于第一讲话者的语音信号和第二讲话者的语音信号来计算每单位时间中第二讲话者的反馈语频率。确定单元基于在平均反馈语频率估计单元中估计的平均反馈语频率和在反馈语频率计算单元中计算的反馈语频率来确定第二讲话者的满意度。
  • 情感信息的确定方法和装置-201710527116.4
  • 刘海波 - 腾讯科技(深圳)有限公司
  • 2017-06-30 - 2019-07-19 - G10L25/63
  • 本发明公开了一种情感信息的确定方法和装置。其中,该方法包括:获取目标音频;从目标音频中识别出第一文本信息,目标音频具有语音特征,第一文本信息具有文本特征;基于第一文本信息具有的文本特征和目标音频具有的语音特征确定目标音频的目标情感信息。本发明解决了相关技术中无法准确识别说话者的情感信息的技术问题。
  • 语音情绪识别系统-201711362343.2
  • 余世经;朱频频 - 上海智臻智能网络科技股份有限公司
  • 2017-12-18 - 2019-07-02 - G10L25/63
  • 本发明实施例提供了一种语音情绪识别系统,解决了现有技术无法实时监测呼叫中心系统中客服和客户的情绪状态的问题。该语音情绪识别系统包括:音频特征提取模块,配置为提取待识别音频流中的语音片段的音频特征向量;匹配模块,配置为将所述语音片段的音频特征向量与多个情绪特征模型进行匹配;情绪判定模块,配置为将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类作为所述语音片段的情绪分类;情绪模型建立模块,配置为通过对包括所述多个情绪分类对应的情绪分类标签的多个预设语音片段各自的音频特征向量进行预学习来建立所述多个情绪特征模型。
  • 通过语音识别情绪的方法-201711362864.8
  • 余世经;朱频频 - 上海智臻智能网络科技股份有限公司
  • 2017-12-18 - 2019-06-25 - G10L25/63
  • 本发明实施例提供了一种通过语音识别情绪的方法、计算机设备和计算机可读存储介质,解决了现有技术无法实时监测呼叫中心系统中客服和客户的情绪状态的问题。该通过语音识别情绪的方法包括:提取待识别音频流中的语音片段的音频特征向量,其中语音片段对应待识别音频流中的一段话;将语音片段的音频特征向量与多个情绪特征模型进行匹配,其中多个情绪特征模型分别对应多个情绪分类之一;以及将匹配结果为相匹配的情绪特征模型所对应的情绪分类作为语音片段的情绪分类。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top