[发明专利]一种智能化表情合成反馈交互系统及方法在审
申请号: | 201911193321.7 | 申请日: | 2019-11-28 |
公开(公告)号: | CN111027425A | 公开(公告)日: | 2020-04-17 |
发明(设计)人: | 黄元忠;卢庆华;欧阳诗康 | 申请(专利权)人: | 深圳市木愚科技有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06T13/40;G06F3/16 |
代理公司: | 北京华夏正合知识产权代理事务所(普通合伙) 11017 | 代理人: | 韩登营 |
地址: | 518052 广东省深圳市南山区南头*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 智能化 表情 合成 反馈 交互 系统 方法 | ||
本发明实施例公开了一种智能化表情合成反馈交互系统及方法,包括:用户信息识别模块,用于实时识别与虚拟人物进行交互的用户的当前状态;智能分析模块,用于分析所述用户的当前状态,并据此提供用于虚拟人像应答的表情反馈信息;智能化表情合成反馈模块,用于将智能分析模块提供的表情反馈信息与虚拟人像的人脸图片作为依据,合成适合当前交互场景的虚拟人物表情;展示模块,用于将所述适合当前交互场景的虚拟人物表情输出至终端平台展示。由上,本申请的系统可以在教育、医疗等领域更好的服务用户,使用户有更好的体验感。
技术领域
本发明实施例涉及交互领域,特别涉及一种智能化表情合成反馈交互系统及方法。
背景技术
目前,传统的交互系统一般在很多时候会出现误判指令和错误唤醒,充满了不确定性,缺乏主动服务的能力,用户体验并没有得到本质的提升,这给大众用户对于交互系统带来了比较刻板的影响。现有技术的缺点是,很少能通过观察用户的情感状态去给出人性化的回复,缺少真实的交流感,往往用户面对的是一个机器人外形或者显示器。因此,会有用户在交互媒介和交互方式上希望追求更佳个性化、更佳拟人化的交互体验。
因此,目前亟需一种智能化表情合成反馈交互系统及方法,满足人机交互过程中用户对于个性化、拟人化的强烈需求,以改善大众用户对于人机交互的刻板影响,促进人机交互系统在各领域中的使用。。
发明内容
有鉴于此,本发明的主要目的在于提供一种智能化表情合成反馈交互系统,可以与用户之间进行更人性化的交互,在教育、医疗等领域更好的服务用户,使用户有更好的体验感。
本申请提供一种智能化表情合成反馈交互系统,包括:
用户信息识别模块,用于实时识别与虚拟人物进行交互的用户的当前状态;
智能分析模块,用于分析所述用户的当前状态,并据此提供用于虚拟人像应答的表情反馈信息;
智能化表情合成反馈模块,用于将智能分析模块提供的表情反馈信息与虚拟人像的人脸图片作为依据,合成适合当前交互场景的虚拟人物表情;
展示模块,用于将所述适合当前交互场景的虚拟人物表情输出至终端平台展示。
由上,本申请可以根据用户的当前状态,合成适合场景的虚拟人物的反馈表情,这种更人性化的交互能更好的提升用户体验,推动交互技术在不同领域中的应用。
优选地,所述用户信息识别模块,包括:
语音识别子模块,用于实时识别在与虚拟人物交互过程中的用户的音频信息;
表情识别子模块,用于调用摄像头实时识别在与虚拟人物交互过程中的用户的表情信息;
手势识别子模块,用于调用摄像头对在与虚拟人物交互过程中的用户的指定手势进行识别。
由上,本申请有利于实时地获取用户的语音、表情及手势信息。
优选地,所述系统,还包括语音合成模块,用于根据所述表情反馈信息,合成用于虚拟人物对用户进行引导的语音信息。
由上,本申请有利于根据用户的表情信息,对用户进行语音引导,以提高用户体验。
优选地,所述智能分析模块,具体用于:
通过获取指定数量的真实交互过程的表情信息,预先训练构建分析模型;
并通过所述分析模型实时分析用户向虚拟人物提问时的音频信息对应的语料信息,以及用户的指定手势;同时实时分析用户在整个交互过程中的面部表情信息和面部表情变化,以提供用于虚拟人像应答的表情反馈信息。
由上,本申请能较好的分析用户在交互过程中的接受、理解状况,从而为合成更好的表情做铺垫。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市木愚科技有限公司,未经深圳市木愚科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911193321.7/2.html,转载请声明来源钻瓜专利网。