[发明专利]一种基于手持式光场相机的空间光场恢复方法有效

专利信息
申请号: 201810135955.6 申请日: 2018-02-09
公开(公告)号: CN108364309B 公开(公告)日: 2020-09-01
发明(设计)人: 金欣;刘莉;戴琼海 申请(专利权)人: 清华大学深圳研究生院
主分类号: G06T7/557 分类号: G06T7/557
代理公司: 深圳新创友知识产权代理有限公司 44223 代理人: 方艳平
地址: 518055 广东*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于手持式光场相机的空间光场恢复方法,包括:输入光场相机参数,输出物体空间上任一点的点扩散函数;离散化点扩散函数,并将光场相机成像重构为矩阵表达的线性系统,输出光场相机单深度物体光场恢复模型;提取物体在各个微透镜下的成像结果,输入到单深度物体光场恢复模型中,输出每个微透镜下的成像结果在多个深度下的单深度光场恢复结果;计算单深度光场恢复结果在不同深度下恢复效果的相似度,提取相似度最高处所对应的深度为物体所在深度,然后再提取该深度下微透镜恢复的物体信息,输出物体空间光场。本发明提出的方法实现了准确的物体原始信息的恢复。
搜索关键词: 一种 基于 手持 式光场 相机 空间 恢复 方法
【主权项】:
1.一种基于手持式光场相机的空间光场恢复方法,其特征在于,包括以下步骤:A1:输入光场相机参数,包括主透镜的焦距和光瞳直径、微透镜的焦距和光瞳直径、以及主透镜平面与主透镜成像平面的距离、主透镜成像平面与微透镜平面间的距离、微透镜平面与传感器间的距离,输出物体空间上任一点的点扩散函数;A2:离散化步骤A1得到的点扩散函数,并将光场相机成像重构为矩阵表达的线性系统,输出光场相机单深度物体光场恢复模型;A3:提取物体在M×N个微透镜下的成像结果Imj,j∈[1,M×N],输入到步骤A2得到的单深度物体光场恢复模型中,输出每个微透镜下的成像结果Imj在多个深度d11~d1n下的单深度光场恢复结果A4:计算步骤A3得到的单深度光场恢复结果在不同深度d11~d1n下恢复效果的相似度提取相似度最高处所对应的深度d1r为物体所在深度,然后再提取该深度d1r下微透镜恢复的物体信息输出物体空间光场。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于清华大学深圳研究生院,未经清华大学深圳研究生院许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810135955.6/,转载请声明来源钻瓜专利网。

同类专利
  • 基于深度学习的异源图像双目立体视觉测距方法和系统-202310751638.8
  • 李力;张子昂;田晓宇;金伟其 - 北京理工大学
  • 2023-06-25 - 2023-09-19 - G06T7/557
  • 本公开涉及基于深度学习的异源图像双目立体视觉测距方法和系统。该方法包括:获取第一类型图像和第二类型图像,第一和第二类型图像分别经由处于预设相对位置的第一和第二相机针对同一场景在同一时间捕获得到并且第一类型图像的视场大于第二类型图像的视场;对第一和第二类型图像中的至少一者进行处理;将处理后的第一和第二类型图像进行共面行对准;预测得到与第一和第二类型图像相关联的视差图;以及基于视差图,获取场景中待测目标的距离信息。以此方式,能够在不增加系统结构的前提下利用异源图像生成准确的视差图进而准确得到目标的距离信息,同时对目标在不同波段实现检测和追踪。
  • 一种深度图像生成方法及装置-202010798964.0
  • 洪哲鸣;王军;王少鸣;郭润增 - 腾讯科技(深圳)有限公司
  • 2020-08-11 - 2023-09-12 - G06T7/557
  • 本申请涉及图像处理领域,尤其涉及一种深度图像生成方法及装置,向目标对象发射结构光,获得各帧的结构光图像;从所述各帧的结构光图像中确定出各关键帧,并分别根据各关键帧的结构光图像,获得各关键帧的深度图像;根据当前待处理帧的结构光图像和对应的关键帧的结构光图像,获得所述当前待处理帧的差分结构光图像;根据预设的参考结构光图像,将所述当前待处理帧的差分结构光图像转换为差分深度图像;根据所述当前待处理帧的差分深度图像和对应的关键帧的深度图像,获得所述当前待处理帧的深度图像,降低深度图像生成的计算量和功耗。
  • 自适应面部深度图生成-202210206183.7
  • 汤坚;邱井洋;刘涛 - 安霸国际有限合伙企业
  • 2022-02-28 - 2023-09-08 - G06T7/557
  • 一种装置,其包括接口、光投射器以及处理器。所述接口可以被配置为:接收像素数据。所述光投射器可以被配置为:生成结构光图案。所述处理器可以被配置为:对所述像素数据进行处理,所述像素数据被布置为包括所述结构光图案的视频帧;执行计算机视觉操作以检测所述视频帧的面部区域的尺寸;响应于所述面部区域的所述尺寸,确定缩放比率;从所述视频帧中提取所述结构光图案;生成经缩减的结构光图像;以及响应于所述经缩减的结构光图像和经缩减的参考图像,生成深度图。可以响应于所述缩放比率执行缩减操作以生成所述经缩减的结构光图像。所述缩放比率可以使得能够生成具有足够深度像素的所述经缩减的结构光图像。
  • 一种多帧深度重建方法、系统、设备及存储介质-202210173591.7
  • 李志彬;朱力;吕方璐;汪博 - 深圳市光鉴科技有限公司
  • 2022-02-24 - 2023-09-05 - G06T7/557
  • 本发明提供了一种多帧深度重建方法、系统、设备及存储介质,包括如下步骤:获取预设置的帧频值,根据所述帧频值连续顺次采集同一目标的第一深度图像、背景图像、第二深度图像;根据所述第一深度图像和所述背景图像的对应像素的灰度值相减生成第一有效图像;根据所述第二深度图像和所述背景图像的对应像素的灰度值相减生成第二有效图像;根据所述第一有效图像和所述第二有效图像进行多帧深度重建或三维重建生成深度图像。本发明控制图像获取顺序与频次,并对图像进行相应的处理,可以提高背景光较强情况下的被测目标多帧深度重建结果,并能够缩短相邻两帧图像之间的采集的时间间隔,提高深度相机受攻击的难度。
  • 深度图像的确定方法和装置-202211718292.3
  • 周韬;聂凯;王炜 - 广东美的白色家电技术创新中心有限公司;美的集团股份有限公司
  • 2022-12-29 - 2023-09-01 - G06T7/557
  • 本申请公开了一种深度图像的确定方法和装置,属于视觉成像技术领域。所述方法包括:将棋盘格编码图像分别与多个不同的一维条形编码图像进行像素对位异或处理,得到每个一维条形编码图像对应的融合编码图像,其中,每个一维条形编码图像中的竖条纹的宽度不同;控制光机将棋盘格编码图像和多个融合编码图像,逐帧投影到目标区域上;获取深度相机检测到的目标区域中棋盘格编码图像对应的棋盘格检测图像和融合编码图像对应的融合检测图像;基于棋盘格检测图像和多个融合检测图像,确定目标区域对应的深度图像。采用本申请,降低了内反射现象的干扰,从而提高了深度图像的准确性。
  • 一种基于光场傅里叶视差分层的特征检测方法-202110261554.7
  • 金海燕;张萌;肖照林 - 西安理工大学
  • 2021-03-10 - 2023-08-11 - G06T7/557
  • 本发明公开了一种基于光场傅里叶视差分层的特征检测方法,解决了二维图像只能聚焦在某一固定深度,其他深度的目标模糊不清,进而导致二维图像特征检测不全面和深度信息缺失的难题。与现有技术相比,本发明方法的有点在于,可以准确全面地检测到场景各个视差层的目标物体的特征点,且检测到的FDL_Harris特征点具有尺度不变性、旋转不变性和视差信息,并且对亮度变化和噪声不敏感。这些局部不变性使得检测到的特征更加稳定和鲁棒。
  • 一种目标深度图像与多光谱图像的提取方法和系统-202310299031.0
  • 陆伟奇;朱嘉诚;沈为民 - 苏州大学
  • 2023-03-24 - 2023-08-01 - G06T7/557
  • 本发明涉及一种目标深度图像与多光谱图像的提取方法和系统,方法包括:步骤S1:通过多光谱光场相机采集目标的多光谱光场图像,并将所述多光谱光场图像分割为多个子图像;步骤S2:提取所述多光谱光场图像中各个子图像中的有效像元;步骤S3:选取各个子图像中相同位置的有效像元,并将相同位置的有效像元重新拼接,构成若干子孔径图像;步骤S4:从若干所述子孔径图像中选取不同光谱通道的有效像元,构成所述目标的多光谱图像;同时从若干所述子孔径图像序列中选取相同光谱通道的有效像元,根据所述相同光谱通道的有效像元计算得到所述目标的深度图像。本发明能够有效提取目标的多光谱图像和深度图像。
  • 一种基于单目偏振三维成像的多目标绝对深度估计方法-202310251809.0
  • 李轩;刘志强;邵晓鹏;蔡玉栋;宋家伟;祝锦涛;戈淑雅;武文欣;杜辉 - 西安电子科技大学;西安电子科技大学杭州研究院
  • 2023-03-15 - 2023-07-25 - G06T7/557
  • 本发明公开了一种基于单目偏振三维成像的多目标绝对深度估计方法,包括:获取相机调焦过程中的主点线性变化系数;将目标物体的最近区域对焦至清晰并获取当前位置的相机内参;获取清晰目标区域不同角度的偏振图像,并计算清晰目标表面反射光的偏振度,方位角和天顶角;构建目标表面法线,积分重建清晰目标区域的三维表面轮廓;根据单目测距模型获得目标表面空间两点间的真实距离;根据两点间的真实距离恢复目标绝对深度信息;将模糊目标区域对焦至清晰并获取对焦后相机内参值;利用对焦后相机内参值,恢复模糊目标动态对焦后的绝对深度三维信息。本发明通过单目测距模型的构建与相机标定的结合,能够实现目标绝对深度信息的恢复。
  • 一种四维光场图像深度获取方法及装置-202210025184.1
  • 金静;侯军辉;吕咸强;朱智宇;郭满堂 - 香港城市大学深圳研究院
  • 2022-01-11 - 2023-07-25 - G06T7/557
  • 本文涉及图像处理领域,提供了一种四维光场图像深度获取方法及装置,其中,方法包括:将四维光场图像划分为四个包含中心视点图像的子光场;对子光场进行位置变换得到位于相同角度位置的子光场;将变换后的子光场输入至多尺度网络中,预测得到所述子光场中中心视点图像对应的初始深度图及其遮挡感知可靠性图;对初始深度图及遮挡感知可靠性图进行位置变换的逆变换;根据逆变换后的遮挡感知可靠性图,融合变换后的初始深度图得到所述中心视点图像的最终深度图。本文能够避免监督学习方法中出现的域转移问题,提高遮挡区域深度预测的准确性。
  • 光场图像处理方法及装置-202310410075.6
  • 李亚鹏;马媛媛;胡飞涛;李扬冰;王雷;谭丞鸣 - 京东方科技集团股份有限公司;北京京东方技术开发有限公司
  • 2023-04-17 - 2023-07-07 - G06T7/557
  • 本公开涉及图像处理技术领域,具体提供了一种光场图像处理方法及装置。一种光场图像处理方法,包括获取目标试点信息以及由采集设备发送的光场图像组,基于目标视点信息对各个光场图像中的前景图像进行视点融合得到前景视点图像,基于目标视点信息以及预先生成的每个视点位置的背景视点图,对各个光场图像中的背景图像进行视点融合得到背景视点图像,根据前景视点图像和背景视点图像生成目标光场图像。本公开实施方式中,通过前背景分割的方式,预先生成背景图像的视差图,从而无需实时计算针对复杂背景的视差图,大大缩减视点图像合成的数据量,提高图像处理速度和精度,可以实现实时光场视频通信。
  • 一种基于透明物体深度补全的机械臂抓取试管方法-202310085582.7
  • 陈洪波;顾赵键;朱萍;吕斌;董哲康;郑军科;邢峰;林冰晶 - 浙江方圆检测集团股份有限公司
  • 2023-01-12 - 2023-07-04 - G06T7/557
  • 本发明公开一种基于透明物体深度补全的机械臂抓取试管方法,其特征在于包括以下步骤:搭建透明深度补全模型;将补全后的点云投影回深度图像;利用深度相机获取透明试管的彩色图像和深度图像并进行对齐;将深度补全模型移植到ROS开发平台上,并加载网络权重参数,对ROS中实时获取到的试管图像进行处理,获得完整的深度图像;机械臂得到试管的位置信息,结合试管顶部的中心坐标系(xt,yt,zt)计算机械臂末端执行器进行抓取的位置,得到机械臂末端执行器在笛卡尔空间下的位姿信息;根据得到的世界坐标系下的位姿信息,结合三次B样条插值算法得到机械臂末端夹爪的轨迹信息。本方法能够较为准确的估计出透明试管的位置信息,快速规划出对应的抓取轨迹完成抓取。
  • 图像处理方法、系统和存储介质-202211641853.4
  • 薛昆南;叶力荣 - 深圳银星智能集团股份有限公司
  • 2022-12-20 - 2023-06-09 - G06T7/557
  • 本发明涉及图像处理领域,公开了一种图像处理方法、系统和存储介质,用于提高图像处理精度。图像处理方法包括:通过线激光发射器和融合摄像头获取初始融合图像,初始融合图像包括物体信息和红外线激光信息;对初始融合图像进行畸变矫正,得到目标融合图像;对目标融合图像进行识别,得到物体识别结果和线激光分割结果;根据物体识别结果获取目标物体的物体类别,根据线激光分割结果进行距离计算,得到与目标物体的实时距离。
  • 一种基于重聚焦极线图邻域分布的深度估计方法和装置-202010082791.2
  • 金欣;李俊科 - 清华大学深圳国际研究生院
  • 2020-02-07 - 2023-05-23 - G06T7/557
  • 一种基于重聚焦极线图邻域分布的深度估计方法和装置,所述方法包括:通过光场重聚焦方式,生成聚焦在不同深度层的光场图,并从中提取一系列不同方向重聚焦极线EPI图,即水平重聚焦极线图栈和竖直重聚焦极线图栈;对于每个像素,在重聚焦EPI图中,选取以其为中心的局部窗口中的邻域像素,利用张量Kullback‑Leibler散度分析两侧的直方图分布;分析竖直和水平重聚焦极线图所得结果的置信度,并将其融合以得到深度图;建立全局优化模型,将初始深度图中的深度点通过初始深度值约束、图像纹理结构约束、以及邻域连续性约束传播到整个图像中。本方法实现在未显式定义遮挡模型的前提下,保证整张深度图质量得到提高。
  • 基于互视角的遮挡评估方法及装置、设备、系统和介质-201910073901.6
  • 朱康 - 曜科智能科技(上海)有限公司
  • 2019-01-25 - 2023-05-16 - G06T7/557
  • 本申请的基于互视角的遮挡评估方法及装置、设备、系统和介质,通过获取通过至少一个顶部深度相机对目标场景以俯视角度采集得到的第一成像数据、及通过光场相机阵列对目标场景以主视角度采集得到的第二成像数据,据以得到针对目标场景中多个区域中的人员头部的世界坐标系下的三维坐标集合;依据所述三维坐标集合将各人员坐标模型化至目标人员脸部坐在的焦平面,以得到人员焦平面坐标集合;依据所述光场相机阵列中至少一个彩色传感器,评估任意一或多个所述彩色传感器视角下目标人员被遮挡情况,并得到针对所述目标人员的遮挡程度评估集合,以供选出最优视角。本申请可以选择出最优的视角对被遮挡位置进行光场渲染,获取到最佳的人脸信息。
  • 一种基于Transformer的光场极线几何图像视差估计方法-202310105817.4
  • 周文晖;闫正茂;钟林;瞿年;张桦;戴国骏 - 杭州电子科技大学
  • 2023-02-08 - 2023-04-28 - G06T7/557
  • 本发明公开了一种基于Transformer的光场极线几何图像视差估计方法。该方法设计了一种具有空间一致性信息保持的EpiFormer网络结构;该方法从0°、45°、90°、135°四个方向提取EPI图像块,并且每个方向提取三个相邻的EPI图像块,共12个EPI图像块作为EpiFormer网络结构的输入,输出为中心像素的视差值,通过把光场中心子光圈所有像素估计的视差值拼接起来,从而得到对应的光场视差图。本发明基于Transformer的方法,有效的建模EPI图像块中像素与像素之间的关联,同时添加了空间信息,缓解了遮挡带来的影响,同时也能得到更精确的像素匹配。
  • 一种面向光场图像的深度估计方法-201910401869.X
  • 韩磊;徐梦溪;黄陈蓉;郑胜男;吴晓彬;夏明亮 - 南京工程学院
  • 2019-05-15 - 2023-03-24 - G06T7/557
  • 本发明公开了一种面向光场图像的深度估计方法,包括如下步骤:解码光场图像得到4D光场数据、中心子孔径图像;由4D光场数据生成焦点堆栈图像序列;对中心子孔径图像上的每个像素,绘制聚焦曲线;检测聚焦曲线的局部对称中心,得视差图D1;由4D光场数据生成每个像素对应的水平方向、垂直方向的EPI图像;检测EPI图像上直线的斜率,得到视差图D2;基于中心子孔径图像和两个视差图,对每个像素绘制两种聚焦曲线片段;计算两种聚焦曲线片段与聚焦曲线的匹配度,由匹配度确定最终视差图D;执行基于能量最小化的深度优化。本发明的深度估计结果具有较高准确度,对室外噪声场景、复杂遮挡场景等具有较强鲁棒性。
  • 一种基于可变高度旋转平行四边形的光场深度估计方法-201910463742.0
  • 朴永日;张淼;宁琪琦 - 大连理工大学
  • 2019-05-30 - 2023-02-17 - G06T7/557
  • 本发明公开了一种基于可变高度旋转平行四边形的光场深度估计方法,包括以下步骤:A、输入四维光场数据生成对极平面图像;B、运用可变高度的旋转平行四边形运算符(HSPO)对对极平面图像进行数据计算,得到距离度量;C、对所述距离度量进行置信、加权得到最终距离度量;D、得到滤波后的距离度量体积;E、根据所述滤波后的距离度量体积,得到初始深度图;F、对所述初始深度图进行处理得到平滑深度图;G、对所述平滑深度图运用软抠图算法,得到最终深度图。本发明提供的光场深度估计方法不仅具有能够处理减弱遮挡物对深度估计的消极影响,提升弱纹理区域的局部深度估计精度的特点,而且对合成光场数据和真实光场数据都有效。
  • 一种散斑深度估计方法、系统、电子设备及存储介质-202211232062.6
  • 毛凤辉;郭振民 - 南昌虚拟现实研究院股份有限公司
  • 2022-10-10 - 2023-01-13 - G06T7/557
  • 本发明提供了一种散斑深度估计方法、系统、电子设备及存储介质,所述方法包括采集带散斑的若干模板图、训练样本图和不带散斑的环境样本图;获得训练样本图的第一深度数据且将其归一化获得归一化深度数据,及获得环境样本图的边缘数据且将其归一化获得归一化边缘监督数据;向训练模型中输入模板图、训练样本图及环境样本图以输出预估深度数据,基于三深度数据计算训练模型的损失值并不断优化训练模型得到完全收敛处理的目标模型;通过目标模型针对待测散斑图及待测无散斑图进行推理得到预测深度信息。通过本申请,可以保证深度精度的情况下,有效的提高通过散斑重建深度信息效率,使得散斑深度相机能在要求高帧率的场合有效应用。
  • 一种基于动量梯度的散射波前光场估计加速方法-201910263248.X
  • 金欣;王周平;戴琼海 - 清华大学深圳研究生院
  • 2019-04-02 - 2022-12-23 - G06T7/557
  • 本发明公开了基于动量梯度的散射波前光场估计加速方法,包括:在散射光场成像系统中于深度z1、z2下采集光强为|Y1|2、|Y2|2的两个光强图像;以光强的算术平方根分别作为深度z1、z2的散射波前光场估计初始值,并设定对应的动量梯度初始值为与两个光强具有相同维数的零值矩阵;利用基于光场幅值约束的散射波前光场估计迭代算法估计两个深度的散射波前光场;迭代过程利用光场的传播以及幅值替换得到的初始梯度更新动量梯度,并利用动量梯度更新散射波前光场估计值直至迭代收敛时,得到两个深度的散射波前光场估计值Y'1和Y'2;使用光场的二次传播算法将Y'1和Y'2传播到目标深度,并对得到的两个传播散射波前光场在复数域求平均,得到目标深度的散射波前光场估计值。
  • 三维模型重建方法和系统-201780088857.5
  • 虞晶怡 - 上海科技大学
  • 2017-05-10 - 2022-12-16 - G06T7/557
  • 公开了一种生成物体三维模型的方法。该方法可利用光场相机在多个视角下拍摄多幅光场图像。该方法可包括:在第一视角下拍摄第一光场图像;在第二视角下拍摄第二光场图像;估算从所述第一视角至第二视角的光场旋转量和平移量;获得所述多幅光场图像中每一幅的视差图;以及通过优化所述光场旋转量和平移量,并优化所述视差图,计算三维点云。所述第一光场图像可包括多幅第一子孔径图像,所述第二光场图像可包括多幅第二子孔径图像。
  • 口腔扫描装置和方法-202110702343.2
  • 张荣文;张晋纲;黄昭清 - 广达电脑股份有限公司
  • 2021-06-24 - 2022-11-25 - G06T7/557
  • 本发明提供了一口腔扫描装置和方法。口腔扫描装置包括图像提取单元、惯性测量单元电路和处理单元。处理单元根据惯性测量单元信息,取得第一图像和第二图像对应的距离值。处理单元藉由轮廓算法,取得第一图像中第一目标物对应的第一轮廓和第二图像中第二目标物对应的第二轮廓。处理单元根据第一轮廓和第二轮廓,取得多个第一采样点和多个第二采样点。处理单元藉由特征点算法,找出第一采样点和第二采样点相对应的特征点。处理单元藉由深度信息算法,根据距离值和特征点对应的位置信息,取得每一特征点对应的深度信息。
  • 一种基于变分法和遮挡互补的光场流估计方法-201811395639.9
  • 林丽莉;曹露;周文晖;马慧彪 - 浙江工商大学
  • 2018-11-22 - 2022-11-25 - G06T7/557
  • 本发明公开了一种基于变分法和遮挡互补的光场流估计方法。该方法基于变分法的光流算法,创造性地把光场深度参数直接代入光流计算公式中,从而建立一种变分光场流模型即光场的深度流模型并对多帧子光圈图像进行光场流估计。并且利用超松弛(SOR)迭代求出光场流,提高了算法的效率。同时,利用多分辨率光场流计算(包括金字塔构建和光场流逐层计算),对所得结果进行进一步的优化,在降低了算法复杂度的同时,提高了光场图像深度估计的精度。本发明利用图像变换和光场子光圈阵列的遮挡互补特点得到一系列的初始光场流,最后对其结果进行平均值优化即获得最终的光场流。
  • 基于偏振微透镜光场影像视差角的绝对深度测量方法-202210625564.9
  • 晏磊;赵红颖;孙山林;林沂;覃建旗;赵海盟;左正康;邹爱成;张子晗;尚可;闫旭 - 桂林航天工业学院;北京大学
  • 2022-06-02 - 2022-11-22 - G06T7/557
  • 本发明涉及光场成像测量技术领域,尤其涉及基于偏振微透镜光场影像视差角的绝对深度测量方法。其包括:1)基于多视角子孔径深度图的影像像素级分类,为视差图的优化提供基准;2)构建基于像素分类结果的匹配代价方程,实现由粗到细的全局优化相对深度图;3)基于微透镜光场相机的硬件结构,建立相对深度图到绝对深度图的线性映射模型,从而实现深度定标;4)将深度定标与光场相机的内参数结合,计算得到观测目标的绝对深度物理参量。由此实现了真实观测对象三维绝对尺寸的物理度量与表征,能够获取光场影像中待测目标的绝对深度信息、特别是能够实现弱纹理及遮挡目标的绝对深度信息获取。
  • 一种基于分裂迭代算法的光场深度估计方法-201910549437.3
  • 张淼;朴永日;刘美月 - 大连理工大学
  • 2019-06-24 - 2022-11-18 - G06T7/557
  • 本发明公开了一种基于分裂迭代算法的光场深度估计方法,属于计算机视觉、光场领域,包括如下步骤:A、对输入的光场图像进行校正,得到校正后光场图像;B、基于傅立叶相移定理求得所述校正后光场图像的某一个视角子孔径图像I(x)在发生位移Δx后的另一视角的子孔径图像I(x+Δx);C、对所有子孔径图像进行立体匹配,构建能量函数得到初始深度图;D、通过对初始深度图进行置信度计算,找到初始深度图中不准确的像素点并对其进行优化;E、得到优化深度图。本发明有效的解决了子孔径图像之间基线过窄的问题,提高匹配质量,在初始深度图的计算过程中尽可能地保证深度图的准确程度。
  • 一种基于视觉的Stewart机构位姿确定方法-202210805198.5
  • 侯敬巍;黄玲涛;张红彦;崔玉鑫;李天宇 - 吉林大学
  • 2022-07-08 - 2022-10-14 - G06T7/557
  • 本发明适用于机构学与机器视觉的交叉技术领域,提供了一种基于视觉的Stewart机构位姿确定方法,包括双目视觉系统的搭建、最优视场求取、双目视觉系统的标定、深度求取和实验验证等步骤。本发明中的一种基于视觉的Stewart机构位姿确定方法,以Stewart机构工作空间特性为基础,结合景深、焦距、视场角和光心距离等与摄像机特性有关的参数,建立最佳视场和ArUco标识;以张正友法结合Stewart机构工作空间特点进行双目视觉系统标定;采用最小二乘法求取对象的深度信息,通过P4P方法获得平台上表面的位置信息。以视场优化的方法解决图像处理速度与定位精度之间的矛盾,以双目视觉技术克服单目视觉技术在ArUco码深度信息精度不足的缺陷,从而获得高速高精度的视觉伺服效果。
  • 一种基于动态融合网络的光场深度估计方法-202110077541.4
  • 朴永日;张淼;张玉坤;吉新新 - 大连理工大学
  • 2021-01-20 - 2022-10-11 - G06T7/557
  • 本发明公开了一种基于动态融合网络的光场深度估计方法,包括以下步骤:确定光场数据集,基于光场数据集确定训练集和测试集;扩充光场数据集;搭建动态融合网络模型;动态融合网络模型由双流网络和一个多模态动态融合模块构成;双流网络由RGB流和焦点堆栈流组成;将双流网络的输出全局RGB特征和焦点特征作为多模态动态融合模块的输入,输出最终深度图;基于训练集训练构建的动态融合网络模型;在所述测试集上测试训练好的动态融合网络模型,并在手机数据集上进行验证。本发明的光场深度估计方法可以获得优于其它光场深度估计方法的精度,减小噪声,保留更多细节信息,且打破了光场相机的限制,成功地应用于普通消费级相机数据。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top