[发明专利]一种智能生成元宇宙空间的方法及其装置在审
申请号: | 202310068237.2 | 申请日: | 2023-02-06 |
公开(公告)号: | CN116310500A | 公开(公告)日: | 2023-06-23 |
发明(设计)人: | 陈鸿雁;顾连生;申凯 | 申请(专利权)人: | 北京全界科技有限公司 |
主分类号: | G06V10/764 | 分类号: | G06V10/764;G06V10/774;G06F16/215;G06N3/04;G06N3/08 |
代理公司: | 北京晟睿智杰知识产权代理事务所(特殊普通合伙) 11603 | 代理人: | 于淼 |
地址: | 100055 北京市西城区广*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 智能 生成 宇宙空间 方法 及其 装置 | ||
本发明公开了一种智能生成元宇宙空间的方法及其装置,该智能生成元宇宙空间的方法包括获取样本数据;将样本数据分别输入不同的基础模型,对输入基础模型的样本数据进行训练,得到预训练模型;将预训练模型作为生成模型,同时选取预训练模型中部分网络结构作为判别模型,对生成模型和判别模型进行对抗训练,得到对抗生成模型;将元宇宙特征输入对抗生成模型中,生成与元宇宙特征相对应的元宇宙空间。本发明可以依靠简单的流程实现在元宇宙中生成现实世界的多元素数字孪生镜像、大规模拓展现实世界、节约人力和时间。
技术领域
本发明涉及人工智能领域,更具体地,涉及一种智能生成元宇宙空间的方法及其装置。
背景技术
元宇宙是人类运用数字技术构建的、由现实世界映射或超越现实世界、可与现实世界交互的虚拟世界,是具备新型社会体系的数字生活空间。元宇宙本质上是对现实世界的虚拟化、数字化过程,需要对内容生产、经济系统、用户体验以及实体世界内容等进行大量改造,如何在元宇宙中生成现实世界的数字孪生镜像,是实现元宇宙的关键所在。
现有文献1(CN115147558A)公开了一种三维重建模型的训练方法、三维重建方法及装置,实现方案为:获取样本物体的样本图像和图像采集设备在采集样本图像时的位姿信息;基于位姿信息,确定样本图像的射线信息;将射线信息输入三维重建模型,以得到样本物体的符号距离场;至少将符号距离场输入渲染模型,以得到渲染图像;基于渲染图像与样本图像的差异,确定颜色损失;对于每条第一射线,基于该第一射线上的多个采样点的符号距离值,确定该第一射线的累积法向量;基于任一第一射线与其周围射线的累积法向量的差异,确定几何损失;基于颜色损失和几何损失,调整三维重建模型的参数。该方案流程比较复杂,比较耗费时间。
现有文献2(CN115082602A)公开了一种生成数字人的方法、模型的训练方法、装置、设备和介质,实现方案为:获取素材内容;基于预训练的场景划分模型,从素材内容中确定多个场景,其中,多个场景中的每个场景分别对应于素材内容中的一个具有完整语义信息的内容片段;以及对于多个场景中的每个场景,基于对应的内容片段,确定该场景对应的目标内容;基于对应的目标内容,确定该场景的场景标签信息;以及基于场景标签信息,配置特定于该场景的数字人。该方案仅仅可以实现智能生成人物,无法生成其他元宇宙中的元素。
因此,亟需一种智能生成元宇宙空间的方法及其装置,通过简单的流程即可生成元宇宙中的多种元素、节约时间。
发明内容
有鉴于此,本发明提供了一种智能生成元宇宙空间的方法,包括获取样本数据,样本数据包括图像数据、语音数据、文本数据和多模态数据;
将样本数据分别输入不同的基础模型,对输入基础模型的样本数据进行训练,得到预训练模型,其中,基础模型包括图像基础模型、语音基础模型、文本基础模型和多模态基础模型,预训练模型包括图像预训练模型、语音预训练模型、文本预训练模型和多模态预训练模型;
将预训练模型作为生成模型,同时选取预训练模型中部分网络结构作为判别模型,对生成模型和判别模型进行对抗训练,得到对抗生成模型,对抗生成模型包括图像对抗生成模型、语音对抗生成模型、文本对抗生成模型和多模态对抗生成模型;
将元宇宙特征输入对抗生成模型中,生成与元宇宙特征相对应的元宇宙空间。
可选地,获取样本数据,包括:
定义数据收集目标;
根据数据收集目标选择数据来源收集样本目标数据;
清洗和预处理样本目标数据;
将清洗和预处理后的样本目标数据划分成不同的数据集;
保存数据集,得到样本数据。
可选地,将样本数据分别输入不同的基础模型,对输入基础模型的样本数据进行训练,得到预训练模型包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京全界科技有限公司,未经北京全界科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202310068237.2/2.html,转载请声明来源钻瓜专利网。