专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果29个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于自适应分块的自由立体显示内容生成方法-CN201410765445.9在审
  • 陶秋琰;王梁昊;李东晓;张明 - 浙江大学
  • 2014-12-12 - 2015-05-20 - H04N13/00
  • 本发明公开了一种基于自适应分块的自由立体显示内容生成方法,包括:(1)获取左右视图;(2)提取左图和右图的对应特征点;(3)对图像进行虚拟的分块,分别计算左图和右图的关注度,并根据关注度进行自适应分块;(4)将图像结构约束、视差约束等约束项量化为能量项的形式,并加权叠加成一个总的能量项;(5)通过最小化总能量项,求解虚拟视点图像与原始视点的映射函数;(6)根据视点间映射函数做反向映射,生成所需的多个虚拟视点。本发明通过对图像进行基于关注度的自适应分块,将不同物体分到不同分块中去,避免同一分块中不同物体的映射关系相互影响,使得通过非线性图像扭曲得到的虚拟视点图像在部分细节上更为自然,瑕疵更少。
  • 一种基于自适应分块自由立体显示内容生成方法
  • [发明专利]一种基于混合摄像机的室内场景定位方法-CN201410766903.0在审
  • 李阳;王梁昊;李东晓;张明 - 浙江大学
  • 2014-12-12 - 2015-04-15 - G06T7/00
  • 本发明公开了一种基于混合摄像机的室内场景定位方法,包括:(1)混合相机拍摄室内场景的深度图和彩色图;(2)追踪相机位置;(3)利用标准贪婪森林算法对拍摄的室内场景的深度图和彩色图进行训练,构建回归森林;(4)进行室内场景定位时,只需利用混合摄像机拍摄的当前帧的深度图和彩色图以及训练好的回归森林便可计算出当前摄像机对应的世界坐标,完成定位。本发明采用混合摄像机拍摄,采用回归森林算法来训练一个已知场景中的每个像素点,不需要使用稀疏特征点或者稠密特征点来进行场景定位;节省了特征点检测、描述、匹配的时间,使摄像机定位与状态无关;进而不必承受摄像机追踪的累积误差,有效提高场景定位的精度和效率。
  • 一种基于混合摄像机室内场景定位方法
  • [发明专利]一种用于立体显示的虚实融合图像生成方法-CN201410765678.9有效
  • 张骏飞;王梁昊;李东晓;张明 - 浙江大学
  • 2014-12-12 - 2015-04-08 - G06T5/50
  • 本发明公开了一种用于立体显示的虚实融合图像生成方法,包括:(1)利用单目RGB-D摄像机获取真实场景的深度图和彩色图;(2)重建三维场景表面模型,计算摄像机参数;(3)映射得到虚拟视点位置的深度图和彩色图;(4)完成虚拟物体的三维注册,渲染得到虚拟物体的深度图和彩色图,进行虚实融合,得到用于立体显示的虚实融合内容。本发明采用单目RGB-D摄像机拍摄,逐帧重建三维场景模型,模型被同时用于摄像机追踪和虚拟视点映射,能获取较高的摄像机追踪精度和虚拟物体注册精度,能较好的应对基于图像的虚拟视点绘制技术中出现的空洞,能实现虚实场景的遮挡判断和碰撞检测,利用立体显示设备可以获得逼真的立体显示效果。
  • 一种用于立体显示虚实融合图像生成方法
  • [发明专利]一种基于视觉和惯性信息的姿态与位置估计方法-CN201410765687.8有效
  • 林城;王梁昊;李东晓;张明 - 浙江大学
  • 2014-12-12 - 2015-04-08 - G01C21/20
  • 本发明公开了一种基于视觉和惯性信息的姿态与位置估计方法,该方法通过融合图像视觉和惯性信息,使用扩展的卡尔曼滤波器保存和更新运动状态信息,以计算得到设备当前准确的姿态和位置,并能获得一段持续时间内设备的运动轨迹。本发明能够灵活地使用图像和传感器的信息,并通过信息的相互补充达到较好的鲁棒性,不会出现追踪丢失的情况。本发明采用的扩展卡尔曼滤波器是基于迭代的形式计算的,与批计算的方法相比,它不需要所有的观测量都获得才开始计算,同时其计算量相对较小,可以适应终端设备计算资源较少的条件,能够较好地达到实时性的要求。
  • 一种基于视觉惯性信息姿态位置估计方法
  • [发明专利]一种多视点自由立体显示的三维增强现实方法-CN201110412061.5有效
  • 刘灵珊;李阳;李东晓;王梁昊;张明 - 浙江大学
  • 2011-12-12 - 2012-07-11 - G06T15/40
  • 本发明公开了一种多视点自由立体显示的三维增强现实方法。它的步骤如下:1)双目相机立体拍摄自然场景;2)提取并匹配主相机图像的特征点,实时产生自然场景的三维点云图并计算相机参数;3)计算主相机图像对应的深度图,绘制虚拟视点图像及其深度图并作空洞修复;4)三维制作软件绘制三维虚拟模型,虚实融合模块实现多个视点图像的虚实融合;5)将多路虚实融合图像进行适当的合成;6)3D显示设备提供多视点立体显示。本发明采用双目相机立体拍摄,采用实时性较好的特征提取与匹配技术,不需在自然场景中作标记;虚实融合模块可以实现虚实场景的光照一致性和无缝融合;3D立体显示设备可提供多人多角度的裸眼多视点立体显示效果。
  • 一种视点自由立体显示三维增强现实方法
  • [发明专利]基于FPGA的立体视频到多视点视频的3D重构方法-CN201210003034.7无效
  • 金鹏飞;姚少俊;付航;李东晓;王梁昊;张明 - 浙江大学
  • 2012-01-06 - 2012-07-11 - H04N13/00
  • 本发明公开了一种基于FPGA的立体视频到多视点视频的3D重构的方法,它的步骤如下:1)双目相机立体拍摄自然场景;2)通过千兆以太网,将两路彩色图像信息,以BT1120数据格式,传送到FPGA进行处理;3)通过立体匹配,获得两路相机图像的深度信息;4)根据算法,进行多视点重构和视点合成运算;5)通过HDMI接口输出,并在裸眼3D显示设备提供多视点立体显示。本发明采用双目相机立体拍摄,可实现真实场景的立体显示;高效的算法以及FPGA的并行架构可以实现实时显示;3D立体显示设备可提供多人多角度的裸眼多视点立体显示效果。
  • 基于fpga立体视频视点方法
  • [发明专利]深度图像后处理的方法-CN201110460155.X有效
  • 杨青青;张静;王梁昊;李东晓;张明 - 浙江大学
  • 2011-12-31 - 2012-07-04 - G06T5/00
  • 本发明公开了一种深度图像后处理的方法,包括以下步骤:(1)对待处理的左右视点立体图像以及对应的左右视点深度图像,以其中一幅视点图像为主视点,另一视点图像为辅助视点,检测主视点深度图像中的可信点和不可信点;(2)根据滤波窗口的基准尺寸,确定处理主视点深度图像需要的滤波尺度范围;(3)利用主视点图像以及主视点深度图像中每个像素的可信度,对主视点深度图像进行多尺度滤波,保留可信点,逐步修正不可信点。本发明针对立体匹配算法产生的深度图像,可以快速有效地修复深度图像中遮挡区域、低纹理区域的不可信点,并且有效地保持物体的边缘,获取精确平滑的深度图像。
  • 深度图像处理方法
  • [发明专利]一种基于深度图分层的虚拟多视点图像的生成方法-CN201010228696.5有效
  • 席明;薛玖飞;王梁昊;李东晓;张明 - 浙江大学
  • 2010-07-16 - 2010-12-01 - H04N13/00
  • 本发明公开了一种基于深度图分层的虚拟多视点图像的生成方法,包括如下步骤:(1)对待处理的深度图像进行预处理;(2)对预处理后的深度图进行分层,得到分层深度图像;(3)选定相机阵列聚焦的深度层,确定前景层和背景层;(4)对待处理的二维图像进行分层,得到分层二维图像;(5)计算各个深度层对应二维图像层对应的视差值;(6)对分层二维图像进行扩展,得到扩展后的分层二维图像;(7)通过加权水平平移算法得到各个虚拟视点位置的虚拟二维图像。本发明不需要虚拟多视点相机阵列模型的参数,可以快速有效的生成多视点自由立体显示系统所需的虚拟多视点图像,并对输入深度图像具有较好的容错能力。
  • 一种基于深度分层虚拟视点图像生成方法
  • [发明专利]一种基于视频序列背景建模的虚拟视点绘制方法-CN201010039539.X有效
  • 薛玖飞;席明;王梁昊;李东晓;张明 - 浙江大学
  • 2010-01-05 - 2010-07-07 - H04N13/00
  • 本发明公开了一种基于视频序列背景建模的虚拟视点绘制方法,包括如下步骤:(1)对参考视点二维视频和深度视频建立统计背景模型,得到背景二维图像和背景深度图像;(2)对每帧深度图像做中值滤波;(3)将背景深度图像和参考视点深度图像投射至视差空间,得到背景图像的视差和参考图像的视差;(4)平移背景二维图像像素,得到目标视点背景图像;(5)平移参考视点二维图像像素,得到目标视点初始图像;(6)融合目标视点初始图像和背景图像,填补空洞,得到最终目标视点图像。本发明结合视频序列时间上的相关性,提取出背景信息,将背景图像和当前参考图像同时绘制至虚拟视点,利用背景来填补空洞,提高了虚拟视点图像的质量。
  • 一种基于视频序列背景建模虚拟视点绘制方法
  • [发明专利]一种对三维场景的表达方法及其电视系统-CN201010039540.2有效
  • 黄俊钧;李东晓;王梁昊;朱政;张明 - 浙江大学
  • 2010-01-05 - 2010-06-16 - H04N13/00
  • 本发明公开了一种对三维场景的表达方法。在本发明涉及的表达方法中,首先根据输入的多路视频图像序列和从各路视频图像序列中提取的信息,对实际场景中的物体的语义及边缘进行识别和提取,并得出三维场景的深度信息,在此基础上,对处于中间视点的一路视频图像进行分割;对分割后的对象,根据其相互之间的遮挡关系,将从其它视点视频图像中提取的遮挡信息加入被遮挡对象被遮挡的位置中;最后根据提取的深度信息,用一个深度函数来表示各对象的深度,或用深度级和深度变化模式共同表示各对象的深度。本发明还同时公开了一种应用该表达方法处理输入的多路视频图像数据的电视系统。
  • 一种三维场景表达方法及其电视系统
  • [发明专利]一种融合运动信息与几何信息的深度提取方法-CN200910102153.6有效
  • 黄晓军;黄俊钧;王梁昊;李东晓;张明 - 浙江大学
  • 2009-08-17 - 2010-02-03 - H04N13/00
  • 本发明公开了一种融合运动信息与几何信息的深度提取方法,包括如下步骤:(1)对每一帧二维视频图像做场景分割,分离静态背景与动态前景;(2)对场景分割图做二值化和滤波处理;(3)基于几何信息产生静态背景的几何深度图;(4)计算前景物体的运动矢量,并换算成运动幅度;(5)根据前景物体所处位置,对其运动幅度做线性变换,得到运动深度图;(6)融合运动深度图和几何深度图,并滤波得到最终深度图。本发明只对分离出的动态前景物体计算运动矢量,消除了背景误匹配点,减少了计算量;同时根据前景物体所处位置线性变换其运动幅度,使之融入到背景深度中,整体提高了深度图的质量。
  • 一种融合运动信息几何深度提取方法
  • [发明专利]用于三维电视系统中2D视频到3D视频的转换方法-CN200910102114.6有效
  • 王梁昊;黄晓军;李东晓;席明;杨青青;张明 - 浙江大学
  • 2009-08-13 - 2010-01-20 - H04N13/00
  • 本发明公开了一种用于三维电视系统中2D视频到3D视频的转换方法,包括如下步骤:(1)获取经过视频编码标准压缩过的待转换2D视频文件;(2)解码得到原始视频,同时从视频解码器中提取每个4×4像素块的运动矢量信息,换算成运动幅度;(3)通过运动幅度描述出每一帧图像的初始深度图;(4)迭代边缘修正滤波,得到物体边缘清晰准确的稠密深度图,完成3D视频的表达。本发明利用视频解码器的中间结果获取初始深度图,很好地节省了信号处理的时间和最终产品的成本;同时设计了一个边缘修正滤波器,解决了基于图像获取深度这类算法中的一大难题——如何得到物体边缘清晰准确的稠密深度图。
  • 用于三维电视系统视频转换方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top