[发明专利]群组视频会话的方法及装置有效
申请号: | 201710104442.4 | 申请日: | 2017-02-24 |
公开(公告)号: | CN108513089B | 公开(公告)日: | 2021-02-12 |
发明(设计)人: | 李凯 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | H04N7/14 | 分类号: | H04N7/14;G06F3/01 |
代理公司: | 北京三高永信知识产权代理有限责任公司 11138 | 代理人: | 朱雅男 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 视频 会话 方法 装置 | ||
1.一种群组视频会话的方法,其特征在于,所述方法包括:
获取群组视频会话中第一用户的虚拟人物,所述第一用户的虚拟人物至少根据所述第一用户的头部特征数据和所述第一用户对应的肢体模型得到,所述虚拟人物为虚拟现实中的三维形式,所述头部特征数据用于描述所述第一用户的实际头部形象;
在所述群组视频会话的过程中,基于所述第一用户的虚拟人物和所述第一用户的行为特征数据,获取所述第一用户的视频数据,所述视频数据中所述第一用户的虚拟人物的动作与所述第一用户的实际动作匹配,所述行为特征数据用于指示所述第一用户的实际动作;
向参与所述群组视频会话的第二用户所在终端发送所述第一用户的视频数据,以实现所述群组视频会话。
2.根据权利要求1所述的方法,其特征在于,所述获取群组视频会话中第一用户的虚拟人物包括:
获取所述第一用户的头部特征数据;
根据所述头部特征数据,生成与所述头部特征数据匹配的头部模型;
根据所述第一用户的用户属性,确定所述第一用户对应的肢体模型;
对所述头部模型和所述肢体模型进行合成,得到所述第一用户的虚拟人物。
3.根据权利要求2所述的方法,其特征在于,所述获取所述第一用户的头部特征数据包括:
获取所述第一用户的头部图像数据;
对所述头部图像数据的色调分布进行分析,得到所述头部特征数据,所述头部特征数据用于指示所述第一用户的头发区域、头发色调、脸部区域、脸部色调、五官位置和五官形态。
4.根据权利要求2所述的方法,其特征在于,所述生成与所述头部特征数据匹配的头部模型包括:
根据所述脸部区域和所述头发区域,确定头部轮廓模型,所述头部轮廓模型包括脸部轮廓模型和头发轮廓模型;
根据所述脸部色调和所述头发色调,填充所述脸部轮廓模型和所述头发轮廓模型;
获取与所述五官形态匹配的五官模型;
按照所述五官位置,将所述五官模型合成至所述脸部轮廓模型,生成与所述头部特征数据匹配的头部模型。
5.根据权利要求2所述的方法,其特征在于,所述根据所述第一用户的用户属性,确定所述第一用户对应的肢体模型包括:
根据所述第一用户的性别数据,确定与所述第一用户的性别数据匹配的肢体模型;和/或,
根据所述第一用户的年龄数据,确定与所述第一用户的年龄数据匹配的肢体模型;和/或,
根据所述第一用户的职业数据,确定与所述第一用户的职业数据匹配的肢体模型。
6.根据权利要求1所述的方法,其特征在于,所述行为特征数据包括表情特征数据,所述基于所述第一用户的虚拟人物和所述第一用户的行为特征数据,获取所述第一用户的视频数据包括:
当检测到所述第一用户的表情特征数据为指定表情特征数据时,获取与所述指定表情特征数据对应的肢体特征数据;
将所述指定表情特征数据实时映射至所述第一用户的虚拟人物的头部模型,并将所述肢体特征数据实时映射至所述第一用户的虚拟人物的肢体模型,得到所述第一用户的视频数据。
7.根据权利要求1所述的方法,其特征在于,所述行为特征数据包括嘴型特征数据,所述基于所述第一用户的虚拟人物和所述第一用户的行为特征数据,获取所述第一用户的视频数据包括:
将所述第一用户的嘴型特征数据实时映射至所述第一用户的虚拟人物的头部模型,得到所述第一用户的视频数据。
8.根据权利要求1所述的方法,其特征在于,所述行为特征数据包括头部方位特征数据,所述基于所述第一用户的虚拟人物和所述第一用户的行为特征数据,获取所述第一用户的视频数据包括:
获取所述第一用户的传感器采集到的所述第一用户的头部方位数据;
将所述第一用户的头部方位特征数据实时映射至所述第一用户的虚拟人物的头部模型,得到所述第一用户的视频数据。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710104442.4/1.html,转载请声明来源钻瓜专利网。