专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果1207222个,建议您升级VIP下载更多相关专利
  • [发明专利]一种基于3D卷积神经网络的立体视生成方法-CN201611243656.1有效
  • 王勋;竺乐庆;王慧燕 - 浙江工商大学
  • 2016-12-29 - 2019-09-13 - G06T3/00
  • 本发明公开了一种基于3D卷积神经网络的立体视生成方法,能将现有的2D视频源转换成能在3D立体显示设备上播放的立体视。包括以下步骤:准备足够数量非动画3D电影作为训练数据,将3D视频源分离成左眼图像序列和右眼图像序列,删去片头、片尾及空白帧后,用模糊C均值聚类法对左眼图像序列进行镜头分割,并以镜头为单位组织训练文件,计算所有左眼图像序列的均值并将这些图像减去该均值,以右眼图像序列作为训练的目标。将需要转换成立体视的2D视频源进行镜头分割并减去训练图像均值后输入到训练得到的3D卷积神经网络,将得到该2D视频的右眼视频图像序列,最终将两者合并成立体视
  • 一种基于卷积神经网络立体视频生成方法
  • [发明专利]一种基于目标检测的视频摘要生成方法-CN201810351445.2有效
  • 刘华平;刘鹤;孙富春 - 清华大学
  • 2018-04-19 - 2020-06-02 - H04N21/8549
  • 本发明提出一种基于目标检测的视频摘要生成方法,属于图像处理技术领域。该方法在训练阶段获取包含2种以上的目标物体的图片集作为训练数据集并进行标注,建立深度学习网络并利用训练数据集对网络进行训练,得到训练完毕的深度学习网络。在使用阶段,获取一段视频,将视频进行分帧并将视频帧输入训练完毕的网络,网络输出每一帧视频帧所包含目标物体的特征向量、目标物体对应的位置向量和包含该目标物体帧原图。通过对所有特征向量进行聚类,最终得到视频摘要的结果。本发明能够准确没有遗漏地选出最能代表视频内容的目标,使人们对视频内容的理解更加清晰和直观,不再局限于场景和视频大小与格式的限制。
  • 一种基于目标检测视频摘要生成方法
  • [发明专利]基于H.264的立体视编解码方法-CN200910030728.8无效
  • 季晓勇;高民芳;刘芳;蒋里;刘栩;孙立;鲁昊明;杨晓琴;黄前山;陈智勇 - 南京大学
  • 2009-04-15 - 2009-09-23 - H04N13/00
  • 一种基于H.264的立体视编解码方法,步骤包括:1)双路视频采集端分别获取左右眼的视频图像,左右眼的视频图像分别传送到各自对应的视频缓存中等待处理;2)编码器模块对所述缓存中的双路视频图像数据进行处理:先对运动/视差补偿,提取矢量信息;然后在对视频图像进行H.264编码的过程中把所用矢量信息嵌入参考图像中,最终得到视频流,实现双路视频的可单路传输性;3)通过视频流发送模块发送已编码视频流到视频解码/接收端,实现立体视的单路传输;4)所述视频解码/接收端包括普通H.264客户端和装有H.264立体图像解码器的客户端,得到单路视频显示或进而立体视显示。
  • 基于264立体视频解码方法
  • [发明专利]一种双目立体视的深度图像估计方法-CN201110410504.7无效
  • 张秋闻;张兆扬;安平;张艳 - 上海大学
  • 2011-12-12 - 2012-06-27 - H04N13/00
  • 本发明公开了一种双目立体视的深度图像估计方法。它包括如下操作步骤:(1)从双目立体摄像机上采集双目立体视图像;(2)对双目立体视图像进行基于图割立体匹配的视差估计;(3)对图割立体匹配得到的视差图像进行一致性检查,采用自适应匹配删除不可靠的匹配,减小深度图像的误匹配;(4)根据视差与深度之间的关系,把视差图像转为深度图像;(5)采用多边滤波器对得到深度图像进行矫正优化;(6)输出深度图像,完成双目立体视深度图像估计。本发明有效地消除了深度图像估计中的错误,最终能获得一个准确且稠密的深度图像,从而满足基于真实场景重建图像质量的要求。
  • 一种双目立体视频深度图像估计方法
  • [发明专利]基于残差宏块自适应下采样立体视压缩编码方法-CN200910035493.1有效
  • 刘峰;何文革;胡栋;张艳彬;朱秀昌 - 南京邮电大学
  • 2009-09-25 - 2010-03-10 - H04N7/26
  • 基于残差宏块自适应下采样立体视压缩编码方法,通过对立体视左右视点视频信息时间、空间相关性及左右视点间相关性分析,采用基于联合补偿预测的立体视编码方案。其中,根据人眼视觉抑制理论——构成立体视图像对的两幅图像,高分辨率图像能够抑制低分辨率图像中的模糊部分,最终获得的立体感觉主要依赖于高分辨率图像。基于此理论,本发明提出了一种基于残差宏块下采样方法,根据图像不同方向的运动情况,分别采用三种下采样方式,减小采样失真度。然后根据立体视编码中运动补偿预测、视差补偿预测和联合补偿预测三种不同的预测模式,来判断当前编码块的运动剧烈程度,实现了自适应的残差宏块下采样方法,提高了编码效率。
  • 基于残差宏块自适应采样立体视频压缩编码方法
  • [发明专利]一种立体视重定位方法-CN201910289450.X有效
  • 邵枫;李鹏飞;李福翠 - 宁波大学
  • 2019-04-11 - 2020-10-27 - H04N13/139
  • 本发明公开了一种立体视重定位方法,其通过提取立体视每个时刻的左视点视频图像和右视点视频图像中的所有四边形网格对应的目标四边形网格的深度运动能量、形状保持能量、时域一致能量、空间一致能量、视差保持能量,并通过优化获取最佳相似变换矩阵,这样使得获得的重定位立体视能够较好地保留重要的显著语义信息、较好地保持时域一致性、有效地调整立体视尺寸大小且保持视觉舒适性。
  • 一种立体视频定位方法
  • [发明专利]多视点立体视的深度序列生成方法和装置-CN201110227435.6有效
  • 季向阳;刘琼;戴琼海 - 清华大学
  • 2011-08-09 - 2011-12-07 - H04N13/00
  • 本发明提出一种多视点立体视的深度序列生成方法和装置,该方法包括以下步骤:提供多视点立体视序列,其中,所述多视点立体视序列的视点的数量为N,N为不小于2的整数;根据多视点立体视序列构造多视点立体视序列的贝叶斯模型,并根据该模型确定每一帧图像中每一个像素点的深度获取方式;根据深度获取方式对相应的像素点进行深度赋值以得到每一帧图像的深度图像,其中,深度获取方式包括时域预测、视点间预测和深度计算方法;和根据该序列的每个视点和图像采集时间对全部深度图像进行整合得到深度序列
  • 视点立体视频深度序列生成方法装置
  • [发明专利]一种高清立体视的视差范围快速检测方法-CN201410315437.4有效
  • 郑冠雯;姜秀华 - 中国传媒大学
  • 2014-07-03 - 2014-09-24 - H04N13/04
  • 本发明涉及一种高清立体视的视差范围快速检测方法。所述方法包括快速立体匹配的步骤、提高快速匹配准确度的步骤、视差范围提取的步骤、空间精度补偿的步骤和时间精度补偿的步骤。本发明将快速稠密立体匹配与检测方法相结合,通过阈值判决的方式快速提取立体图像的视差范围;采用分布式思路,通过跟踪画面出屏最大物体的方式计算视频的最大出屏范围,大幅降低了计算量,提高了计算速度;本发明不需要计算立体视每一帧的稠密视差图像与现有技术相比,本发明能够在抽帧处理的同时保证视差信息时间上的连续性,能够准实时地逐帧计算高清视频的视差范围。
  • 一种立体视频视差范围快速检测方法
  • [发明专利]一种实时传输高分辨率多视点立体视的方法-CN201210068595.5无效
  • 周圆;张凌寒;侯春萍 - 天津大学
  • 2012-03-15 - 2012-08-01 - H04N13/00
  • 本发明属于视频传输领域,涉及一种实时传输高分辨率多视点立体视的方法:对多视点立体视的每个视点的视频流进行独立编码;将编码后的多视点立体视按照视点的不同,分成两组进行分组处理;对于组内的每个视点,读取视频流里的每个NAL单元,根据NAL单元的头部信息判断是否包含具体图像数据,分离出包含具体图像数据的NAL单元,从而得到包含组内一个仅包含具体图像数据的新的视频数据流;对新的视频数据流进行数据包合成处理,将在不同视点的同一位置包含具体图像数据的NAL单元处理成一个混合包;将经过数据包合成处理的各组视频,通过不同信道进行传输。本班反计算复杂度低,有效增强了多视点立体视的鲁棒性和误码掩盖效率。
  • 一种实时传输高分辨率视点立体视频方法

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top