[发明专利]一种基于有限视场反馈的全景视频多播流的视角预测方法有效
申请号: | 202110672362.5 | 申请日: | 2021-06-17 |
公开(公告)号: | CN113365156B | 公开(公告)日: | 2022-03-11 |
发明(设计)人: | 黎洁;韩玲;李奇越;张聪;王枭;陈勇;彭涛;王慧宇 | 申请(专利权)人: | 合肥工业大学 |
主分类号: | H04N21/6405 | 分类号: | H04N21/6405;H04N21/81;H04N21/234;G06N3/04;G06N3/08 |
代理公司: | 安徽省合肥新安专利代理有限责任公司 34101 | 代理人: | 陆丽莉;何梅生 |
地址: | 230009 安*** | 国省代码: | 安徽;34 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 有限 视场 反馈 全景 视频 多播流 视角 预测 方法 | ||
1.一种基于有限视场反馈的全景视频多播流的视角预测方法,其特征是应用于多播网络场景中,所述多播网络场景中包含全景视频服务器和N个客户端;所述全景视频服务器和客户端之间的上行链路中包含有从客户端到全景视频服务器的反馈信道;所述反馈信道用于将用户的实时视角信息反馈给全景视频服务器,并由所述服务器进行视角预测;所述全景视频多播流的视角预测方法是按如下步骤进行:
步骤一、构建基于球面卷积的显著性检测模型,所述显著性检测模型包括:显著性特征提取模块MST-SPCNN和基于球面卷积注意力模块MSP-CBAM;
所述显著性特征提取模块MST-SPCNN包括:空间特征提取单元MS-SPCNN和时间特征提取单元MT-SPCNN;所述空间特征提取单元MS-SPCNN以视频中t时刻的单帧全景图像χt为输入,并提取单帧图像χt中的空间尺度特征FtS;
所述时间特征提取单元MT-SPCNN以连续t时刻到t+τ时刻的多帧图像(χt,χt+1,...,χt+τ)为输入,并提取多帧图像间的时间尺度特征FtT;将t时刻的空间尺度特征FtS和时间尺度特征FtT按通道串联后,得到t时刻的时空特征FtST;
将t时刻的时空特征FtST输入到所述球面卷积注意力模块MSP-CBAM中并输出最终的时空特征Ft′,将时空特征Ft′映射为t时刻的显著性特征图Pts;1≤t≤t+τ≤tmax,tmax表示全景视频的时长;
步骤二、根据N个用户通过反馈信道反馈的{t-k,...,t-2,t-1}时刻的历史视角信息,从中随机选择R个用户在{t-k,...,t-2,t-1}时刻的历史视角信息;
根据所选择的每个用户在{t-k,...,t-2,t-1}的历史视角信息,利用高斯分布生成每个用户在{t-k,...,t-2,t-1}时刻的历史视图序列,记为
其中,
表示第r个用户反馈的{t-k,...,t-2,t-1}时刻的历史视图序列,表示第r个用户反馈的t-k时刻的历史用户视图,1≤r≤R≤N;
将R个用户在{t-k,...,t-2,t-1}时刻的历史用户视图序列相加,得到用户视图序列,记为(Xt-k,...,Xt-2,Xt-1);其中,Xt-k表示R个用户在t-k时刻的视图序列;
步骤三、构建视角预测模块,所述视角预测模块包含基于球面卷积的双层记忆网络模型,M2SP-ConvGRU;所述双层记忆网络模型M2SP-ConvGRU是由两层基于球面卷积的记忆单元MSP-ConvGRU构成,所述记忆单元MSP-ConvGRU是在GRU模型其输入到状态转换以及状态到状态转换中,用球面卷积代替元素级的乘法;
将用户视图序列(Xt-k,...,Xt-2,Xt-1)作为双层记忆网络模块M2SP-ConvGRU的输入,并进行特征挖掘和提取后,输出双层记忆网络模块M2SP-ConvGRU中第二层t时刻的隐藏层特征,并作为t时刻的视角特征后映射为用户特征图Ptv;
步骤四、将显著性特征图Pts和用户特征图Ptv进行融合,得到t时刻预测的全体用户视角Pt。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于合肥工业大学,未经合肥工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110672362.5/1.html,转载请声明来源钻瓜专利网。
- 上一篇:冰箱
- 下一篇:工厂化青蟹养殖抗雾化饵料及其制备方法