[发明专利]一种车联网中SVC视频的传输方法有效
申请号: | 201910652495.9 | 申请日: | 2019-07-19 |
公开(公告)号: | CN110418143B | 公开(公告)日: | 2021-05-14 |
发明(设计)人: | 付芳;张志才 | 申请(专利权)人: | 山西大学 |
主分类号: | H04N19/34 | 分类号: | H04N19/34;H04N21/2343;H04N21/4402;H04N21/647 |
代理公司: | 太原申立德知识产权代理事务所(特殊普通合伙) 14115 | 代理人: | 郭海燕 |
地址: | 030006*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明属于第五代无线通信技术领域,具体涉及一种车联网中SVC视频的传输方法。目的是为了解决目前车联网中视频传输中时延高、核心网负担大和传统的强化学习算法处理能力有限等技术问题。本发明为了降低时延和减轻核心网的负担,将流行度高的SVC视频缓存在路边单元RSU中,如果车辆用户请求的SVC视频恰好存储在路边单元RSU中,就直接由路边单元RSU给车辆用户发送SVC视频,反之再从SVC服务器传送,这不仅可以省去一部分SVC服务器端向路边单元RSU发送SVC视频的时间,而且避免视频频繁穿梭核心网从而减轻核心网的传输负担。 | ||
搜索关键词: | 一种 联网 svc 视频 传输 方法 | ||
【主权项】:
1.一种车联网中SVC视频的传输方法,其特征在于:包括以下步骤:步骤1.将车联网SVC视频传输的动态系统建模为马尔科夫决策过程MDP<S,A,P,r>;其中S表示状态空间,A表示动作空间,P表示状态转移概率函数,r表示回报函数;所述状态空间S包括四部分:1)下行链路的信干噪比ηu(t);2)可用的无线频谱资源状态信息
3)SVC视频存储状态信息eu;4)SVC视频的内容流行度ρu;所述动作空间A包括三部分:1)SVC视频层数选择;2)无线频谱资源块的分配数量;3)选择哪个路边单元RSU为用户服务;所述回报函数
其中Ψu是SVC视频质量函数,Du是时延函数,U是车辆用户的个数,α是SVC视频质量的奖励系数且α>0,单位为元,β是时延的惩罚系数且β>0,单位为元/秒;步骤2.检测导频信号来获取下行链路的信道增益,建立城市道路场景的路径损耗数学模型,将获取的信道增益代入路径损耗模型中,得到下行链路的信干噪比ηu(t);步骤3.将每个路边单元RSU中无线资源频谱均分成K块,每一块带宽为Z赫兹,采集可用的无线频谱资源状态信息
记为第k块频谱资源被RSU分配与否的标志,当
时,路边单元RSU将第k块频谱资源分配给第u个车辆用户;步骤4.将步骤2和3采集的信干噪比ηu(t)和可用的无线频谱资源状态信息
代入
得到传输速率vu(t);步骤5.将SVC视频服务器端提供的原始SVC视频以SVC技术编码为L0,L1,L2,L3,L4五层,其中,L0为基础层,L1,L2L3L4为增强层;SVC视频遵循H.264/SVC标准,使用软件JSVM获得可伸缩SVC视频流每层的源速率,用源速率乘以播放时间0.5秒,得到各层SVC视频的数据量大小
步骤6.将步骤4和5的得到的vu(t)和
代入式子
得出SVC视频从路边单元RSU到车辆用户的传输时间Tp;步骤7.采集SVC视频存储状态信息eu,记为请求SVC视频内容被路边单元RSU存储与否的标志;步骤8.用Zipf分布来模拟SVC视频的流行度ρu,ρu∈[0,1],采集得到SVC视频的内容流行度信息ρu;步骤9.将步骤7和8采集的SVC视频存储状态信息eu和内容流行度信息ρu代入式子Tb=(1‑eu)(1‑ρu)Tr,得到当eu=0时SVC视频从SVC服务器端传送到路边单元RSU的时间,其中Tr是常数系数;步骤10.将步骤5中车辆用户接收到的SVC视频划分成若干小段进行播放和传输,每一段的播放时间长度Ts=0.5秒,当播放一小段SVC视频的同时传输下一小段SVC视频流;将步骤6得到的SVC视频从路边单元RSU到车辆用户的传输时间Tp和步骤9得到的当eu=0时SVC视频从SVC服务器端传送到路边单元RSU的时间Tb,代入式子
得到传输一小段SVC视频所需的总时间Tu;步骤11.将步骤10得到的传输一小段SVC视频所需的总时间Tu,代入式子Du=Tu‑Ts,得到步骤1回报函数中的时延函数Du;步骤12.设各个SVC视频流不同的层解码所对应的峰值信噪比PSNR已知,用峰值信噪比PSNR来衡量接收SVC视频质量并构建步骤1回报函数中的SVC视频质量函数,
其中
表示车辆用户接收到SVC视频的峰值信噪比PSNR值,PSNR(L4)是最高层SVC视频的峰值信噪比PSNR值;至此完成MDP问题的建模和采样工作;步骤13.用深度AC算法解决上述MDP问题,初始化Actor部分的权重向量θ和学习率αa,t且使αa,t>0;初始化Critic部分的权重向量ω和学习率αc,t且使αc,t>0;步骤14.将Actor部分的输入设为状态s,输出设为动作a,动作概率分布函数描绘在当前状态下各个动作的概率值,选择一个最大概率值的动作,在当前状态下执行该动作就可以得到这个动作的立即奖励值,状态从当前状态转换到下一状态;步骤15.Critic部分通过神经网络进行函数逼近,通过权重向量ω对状态‑动作值函数Qπ(s,a)进行参数化,采用ReLU作为非线性激活函数,将状态作为神经元的输入,映射到输出端得到Qω(s,a),作为Qπ(s,a)的函数逼近值;步骤16.Critic部分用步骤14得到的立即奖励值和步骤15的结果得到时间差分误差;步骤17.根据步骤16的结果,Critic部分更新权重向量ω;步骤18.将步骤16的结果反馈给Actor部分,指导Actor部分更新权重向量θ和动作概率分布函数,重复步骤14‑18直到动作概率分布函数稳定。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西大学,未经山西大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201910652495.9/,转载请声明来源钻瓜专利网。