[发明专利]基于渲染时间估计和LOD选择的实时渲染方法、系统及设备有效
申请号: | 202210068758.3 | 申请日: | 2022-01-21 |
公开(公告)号: | CN114494553B | 公开(公告)日: | 2022-08-23 |
发明(设计)人: | 陈明迪;赵文平;叶耀鸣;李云桃 | 申请(专利权)人: | 杭州游聚信息技术有限公司 |
主分类号: | G06T15/00 | 分类号: | G06T15/00;G06N3/04;G06N3/08 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 傅朝栋;张法高 |
地址: | 310000 浙江省杭州市*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 渲染 时间 估计 lod 选择 实时 方法 系统 设备 | ||
1.一种基于渲染时间估计和LOD选择的实时渲染方法,其特征在于,包括:
S1:获取针对执行渲染的目标终端设备的机型预先训练的渲染时间预估网络;所述渲染时间预估网络为基于门控循环单元和多层感知机的神经网络,能够根据物体在上一场景帧的预估渲染时间与实际渲染时间以及待渲染的三维模型复杂度元信息预测当前场景帧渲染该三维模型所需要的预估渲染时间;所述复杂度元信息包括三维模型的节点数、多边形面数、最小外包球体积、最小外包立方体体积、材质数目和材质质量;
S2:目标终端设备在渲染一个场景帧之前,首先加载场景帧中所有物体在所有可选细节层次下的复杂度元信息,然后将每一个物体在每一种细节层次下的三维模型复杂度元信息与同一物体在上一场景帧中的预估渲染时间与实际渲染时间一起输入所述渲染时间预估网络中进行渲染时间预测,最终得到当前场景帧中每一个物体在每一种细节层次下进行三维模型渲染所需的预估渲染时间;
S3:针对场景帧中的每一个物体在每一种细节层次下的三维模型,根据该物体与视点之间的距离、该物体在场景帧中的面积占比以及三维模型的相对复杂度,计算场景帧中的每一个物体在每一种细节层次下进行三维模型渲染所能产生的渲染收益;
S4:根据场景帧中所有物体在不同细节层次下的预估渲染时间和渲染收益,使用寻优算法为场景帧中每一个物体分配细节层次,得到在所有物体的预估渲染时间总和不超过总渲染时间允许值的条件下最大化渲染收益的近似最优LOD分配方案;
S5:场景帧中所有物体均按照近似最优LOD分配方案中分配的细节层次加载三维模型并进行渲染。
2.如权利要求1所述的基于渲染时间估计和LOD选择的实时渲染方法,其特征在于,所述渲染时间预估网络的训练方法如下:
S11:针对目标终端设备的机型,构建基于门控循环单元和多层感知机的渲染时间预估网络,并对网络参数进行随机初始化;
S12:从三维模型库中随机抽取一个样本三维模型,加载其复杂度元信息;
S13:将该样本三维模型上一场景帧的预估渲染时间与实际渲染时间输入到门控循环单元中,获得当前场景帧的隐藏状态;
S14:将S13中由门控循环单元输出的当前场景帧的隐藏状态以及S12中加载的样本三维模型的复杂度元信息输入到多层感知机中,计算当前场景帧渲染该样本三维模型所需的预估渲染时间;
S16:在目标终端设备上渲染该样本三维模型,记录所需的实际渲染时间;
S17:使用实际渲染时间和预估渲染时间计算损失函数,并更新网络参数;
S18:判断损失函数是否收敛,若收敛则结束训练,否则重新按照S12~S17继续迭代训练,直至收敛为止。
3.如权利要求2所述的基于渲染时间估计和LOD选择的实时渲染方法,其特征在于,所述S17中,使用反向传播函数计算渲染时间预估网络中参数的梯度,并使用梯度更新网络参数。
4.如权利要求1所述的基于渲染时间估计和LOD选择的实时渲染方法,其特征在于,场景帧中的任意一个物体o在任意第i种细节层次下进行三维模型渲染所能产生的渲染收益计算公式为:
Benefit(o,i)=S*bi
S=πp2
其中,S为物体在渲染后图像上的面积;p为物体的最小外包球在视锥体近平面上的投影的半径;n为从观测者到视锥体的近平面的距离;r为物体最小外包球体的半径;v指向观测者位置的向量;c为指向物体最小外包球体中心的向量;d为指向观测方向的单位向量;bi代表第i个细节层次的三维模型的相对复杂程度,定义为三维模型中顶点数numv和多边形面数nump的加权和与三维模型最小外包球体积的比值;r为三维模型最小外包球半径;α和β均为权重值。
5.如权利要求1所述的基于渲染时间估计和LOD选择的实时渲染方法,其特征在于,所述寻优算法为贪心算法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州游聚信息技术有限公司,未经杭州游聚信息技术有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210068758.3/1.html,转载请声明来源钻瓜专利网。