[发明专利]一种基于全景视频的图文跟随合成方法在审
申请号: | 201711446449.0 | 申请日: | 2017-12-27 |
公开(公告)号: | CN109982005A | 公开(公告)日: | 2019-07-05 |
发明(设计)人: | 王存宇;唐兴波;陈忠会;李刚 | 申请(专利权)人: | 艾迪普(北京)文化科技股份有限公司 |
主分类号: | H04N5/265 | 分类号: | H04N5/265;H04N5/232 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100101 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 全景视频 图文 三维场景 实际参数 还原 分析参数 三维 合成 素材 摄像机运动 参数获取 视频分析 布景 叠加 录制 测量 渲染 场景 灯光 记录 分析 | ||
1.一种基于全景视频的图文跟随合成方法,其特征在于,该方法包括:
实际参数获取,测量和记录全景视频录制场景中的灯光、布景以及摄像机运动等实际参数;
视频分析及参数获取,对全景视频进行分析并获取分析参数;
三维场景还原,根据所述实际参数和所述分析参数,将全景视频还原到三维场景;
添加图文和三维素材,在还原的所述三维场景中叠加图文和三维素材;
渲染并生成新的全景视频。
2.根据权利要求1所述的方法,其特征在于,在所述视频分析及参数获取步骤中,进一步包括:
a)将全景视频拆并分析全景视频每一帧的数据;
b)根据每一帧的数据获取摄像机参数信息和位置参数;
c)根据数据寻找标记物,将所述标记物做为参照生成特征点,即特征图像;
d)对全景视频内的所述特征点进行识别;
e)通过所述特征点的距离大小和现实的距离大小生成比例;
f)通过根据所述特征点的距离大小以及和现实的距离大小生成的比例,反算出摄像机的位置、焦距信息。
3.根据权利要求2所述的方法,其特征在于,在所述添加图文和素材步骤中,还包括根据实际参数计算出与场景匹配的虚拟三维物件的应有大小,并在三维场景下根据摄像机参数、特征点和要提示的物件的比较,对三维图元的动静态参数进行调整和适配。
4.根据权利要求1所述的方法,其特征在于,所述实际参数和所述分析参数通过下述方式获取:
a’)记录原始参数做为实际参数;
b’)对布置在视频中的参照物进行比例运算获取分析参数;
c’)对视频中的可以作为参照物的物体进行测量推算场景参数做为分析参数;
d’)通过运动分析和跟踪算法反算出所录制视频的摄像机参数信息和布景的位置参数做为分析参数。
5.根据权利要求1所述的方法,其特征在于,在所述添加图文和三维素材的步骤中,在转换完成的三维场景中进一步进行如下处理:
a”)图文结合和遮罩:使用与场景中人物景物及设施相同的参数或对所述实际参数做偏移处理进行图文叠加;
b”)图文跟踪:按所述实际参数动态修改叠加三维图文的参数,修改三维场景中三维图文的位置和旋转,在不同的角度实现图文信息预览和变化;
c”)相对运动:以所述实际参数作为输入值通过特效算法计算和叠加图文的参数;
d”)场景修饰:根据原场景的人物和景物设施的参数及轮廓,制作三维场景物件,动态修改其参数,从而达到修饰效果。
6.根据权利要求2所述的方法,其特征在于,使用模板匹配法对全景视频内的所述特征点进行识别,其中,通过滑动模板图像和原图像进行对比,来确定最匹配的区域,从而对所述特征点进行识别。
7.根据权利要求2所述的方法,其特征在于,所述特征点的距离通过如下步骤进行计算:
a”’)将图像转换成灰度图像;
b”’)将图像骨架化,把图像核心的骨架留下,其他的赘余点删除,得到一条单像素厚度的直线段;
c”’)使用霍夫变换的PHTT方法,返回的是直线的方向以及范围,即返回的检测到的直线的两端点。
d”’)根据检测图像直线的两端点,计算特征点的距离。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于艾迪普(北京)文化科技股份有限公司,未经艾迪普(北京)文化科技股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711446449.0/1.html,转载请声明来源钻瓜专利网。