[发明专利]一种针对真实三维场景的交互式自由立体显示方法有效
申请号: | 201810078152.1 | 申请日: | 2018-01-26 |
公开(公告)号: | CN110087059B | 公开(公告)日: | 2021-02-19 |
发明(设计)人: | 王琼华;任慧;罗令;邢妍 | 申请(专利权)人: | 四川大学 |
主分类号: | H04N13/302 | 分类号: | H04N13/302 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 610065 四川*** | 国省代码: | 四川;51 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 针对 真实 三维 场景 交互式 自由 立体 显示 方法 | ||
1.一种针对真实三维场景的交互式自由立体显示方法,其特征在于,所述方法包括真实场景超多视点视差信息的获取、超多视点合成图像序列的生成、手势交互立体显示三个过程;所述真实场景超多视点视差信息的获取过程,首先,将N个摄像机在水平方向上以等间隔排列,使得所有摄像机的光轴会聚于一点,要求摄像机数N远大于显示视点数M,然后,在拍摄中心深度平面处放置棋盘格标定板,利用摄像机阵列对棋盘格标定板进行拍摄,得到N幅标定板视差图像序列,以n为索引来表示,n∈{1,2,3,…,N},最后,利用摄像机阵列对真实三维目标场景进行拍摄,得到N幅目标场景视差图像序列,同样以n为索引进行表示;所述超多视点合成图像序列的生成过程,首先,对每幅标定板视差图像确定棋盘格边缘四个角点的像素坐标,并根据相似性关系对角点坐标进行拓展,获得边缘角点的最大拓展坐标,结合校正后视差图像分辨率,计算得到第n幅视差图像的单应性变换矩阵,利用该矩阵对拍摄的第n幅目标场景视差图像进行校正,获得对应的校正视差图像,然后,在校正后的视差图像序列中以第m幅视差图像为起点,选取相邻的M幅视差图像序列进行像素映射,合成初始合成图像Em(x”,y”),随后以1个视点为间隔选取第m+1~m+M幅视差图像序列,采用相同的像素映射方法合成下一幅合成图像Em+1(x”,y”),以此类推,最终生成数目为N-M+1的超多视点合成图像序列;所述手势交互立体显示的过程,首先,利用Kinect体感设备提取手部骨骼信息,通过手势识别模块判断手部挥动距离是否超过设定的距离阈值或手势是否符合特定手势模板,若手部挥动距离超过设定的距离阈值,则执行阈值检测响应函数,即检测当前显示的合成图像Em(x”,y”),并切换为与之相邻的下一幅合成图像Em+1(x”,y”)进行显示,其中m={1,2,3,…,N-M+1},N为摄像机总数,M为单幅合成图像视点数,若手势状态符合设定的特定手势模板,则执行特殊命令响应函数,即根据传入的匹配参数完成对应的特殊命令。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于四川大学,未经四川大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810078152.1/1.html,转载请声明来源钻瓜专利网。