[发明专利]一种基于人工智能的动画形象驱动方法和装置有效
申请号: | 201910824770.0 | 申请日: | 2019-09-02 |
公开(公告)号: | CN110531860B | 公开(公告)日: | 2020-07-24 |
发明(设计)人: | 暴林超;康世胤;王盛;林祥凯;季兴;朱展图;李广之;陀得意;刘朋 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06F3/01 | 分类号: | G06F3/01;G06F3/16;G06T13/40 |
代理公司: | 深圳市深佳知识产权代理事务所(普通合伙) 44285 | 代理人: | 王兆林 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 人工智能 动画 形象 驱动 方法 装置 | ||
本申请实施例公开了一种基于人工智能的动画形象驱动方法,通过采集说话人说出语音时脸部表情变化的媒体数据,确定说话人所对应第一动画形象的第一表情基,通过第一表情基可以体现第一动画形象的不同表情。在确定出用于驱动第二动画形象的目标文本信息后,根据目标文本信息、前述采集的媒体数据和第一表情基,确定对应目标文本信息的声学特征和目标表情参数。通过声学特征和目标表情参数,可以驱动具有第二表情基的第二动画形象,使得第二动画形象可以通过声学特征模拟发出说话人说出目标文本信息的声音,并且在发声过程中做出符合该说话人应有表情的脸部表情,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。
技术领域
本申请涉及数据处理领域,特别是涉及一种基于人工智能的动画形象驱动方法和装置。
背景技术
随着计算机技术的发展,人机交互已经比较常见,但多为单纯的语音交互,例如,交互设备可以根据用户输入的文字或语音确定回复内容,并播放根据回复内容合成的虚拟声音。
这种类型的人机交互带来的用户沉浸感难以满足目前用户的交互需求,为了提高用户沉浸感,具有表情变化能力例如可以口型变化的动画形象作为与用户的交互对象属于目前的研发方向。
然而,目前并没有完善的动画形象驱动方式。
发明内容
为了解决上述技术问题,本申请提供了一种基于人工智能的动画形象驱动方法和装置,给用户带来逼真的代入感和沉浸感,提高了用户与动画形象进行交互的体验。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例提供一种动画形象驱动方法,所述方法包括:
获取包含说话人的脸部表情和对应语音的媒体数据;
根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
第二方面,本申请实施例提供一种动画形象驱动装置,所述装置包括获取单元、第一确定单元、第二确定单元和驱动单元:
所述获取单元,用于获取包含说话人的脸部表情和对应语音的媒体数据;
所述第一确定单元,用于根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;
所述第二确定单元,用于根据目标文本信息、所述媒体数据和所述第一表情基,确定对应所述目标文本信息的声学特征和目标表情参数;所述声学特征用于标识模拟所述说话人说出所述目标文本信息的声音,所述目标表情参数用于标识模拟所述说话人说出所述目标文本信息的脸部表情相对于所述第一表情基的变化程度;
所述驱动单元,用于根据所述声学特征和所述目标表情参数,驱动具有第二表情基的第二动画形象。
第三方面,本申请实施例提供一种动画形象驱动方法,所述方法包括:
获取包含说话人的脸部表情和对应语音的第一媒体数据;
根据所述脸部表情确定所述说话人所对应第一动画形象的第一表情基,所述第一表情基用于标识所述第一动画形象的表情;所述第一表情基的维数为第一维数,顶点拓扑为第一顶点拓扑;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910824770.0/2.html,转载请声明来源钻瓜专利网。