[发明专利]一种基于卷积神经网络和双目视差的无监督深度预测方法在审

专利信息
申请号: 201810144465.2 申请日: 2018-02-12
公开(公告)号: CN108389226A 公开(公告)日: 2018-08-10
发明(设计)人: 刘波;杨青相 申请(专利权)人: 北京工业大学
主分类号: G06T7/55 分类号: G06T7/55;G06T7/00
代理公司: 北京思海天达知识产权代理有限公司 11203 代理人: 张慧
地址: 100124 *** 国省代码: 北京;11
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开一种基于卷积神经网络和双目视差的无监督深度预测方法,包括以下步骤:首先,使用卷积神经网络拟合一个非线性函数,将两幅RGB图像转换为对应的深度图像;然后,利用深度信息计算从左图像像素坐标经过变换得到在右图像的像素位置;在得到右图像的像素位置后经过双线性插值得到右图像的像素坐标和对应的像素值;最后利用求得像素值和左图像对应的像素值计算预测损失。通过这种不需要任何真实深度信息的训练可以得到相应的深度图像。该方法在不需要任何真实深度信息预测相应的深度图像。
搜索关键词: 卷积神经网络 深度图像 深度信息 右图像 深度预测 双目视差 像素位置 像素坐标 无监督 左图像 像素 非线性函数 像素值计算 双线性 预测 拟合 转换
【主权项】:
1.一种基于卷积神经网络和双目视差的无监督深度预测方法,其特征在于,包括以下步骤:步骤1、使用卷积神经网络拟合一个非线性函数,将左右相机采集两幅RGB图像转换为对应的深度图像;步骤2、利用深度信息计算从左图像像素坐标经过变换得到在右图像的像素位置;步骤3、在得到右图像的像素位置后经过双线性插值得到右图像的像素坐标和对应的像素值;步骤4、利用求得像素值和左图像对应的像素值计算预测损失。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京工业大学,未经北京工业大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201810144465.2/,转载请声明来源钻瓜专利网。

同类专利
  • 一种基于图像序列的钢轨纵向位移检测方法及系统-201710388790.9
  • 尹辉;刘秀波;高亮;黄华;刘志浩 - 北京交通大学
  • 2017-05-27 - 2019-10-25 - G06T7/55
  • 本发明公开一种基于图像序列的钢轨纵向位移检测方法,所述方法包括:S1:在铁轨旁边的固定参考基准结构以及钢轨轨腰上设置编码标志;S2:通过图像采集设备采集不同时间、不同角度、包含所有编码标志的钢轨纵向位移线路现场图像组成图像序列;S3:基于卷积神经网络的标志检测方法,构建编码标志检测及定位模型,对图像序列中的编码标志进行检测和定位;S4:解码各编码标志的特征点以及特征点的亚像素图像坐标;S5:基于亚像素图像坐标构建钢轨纵向位移线路现场的三维重建模型;S6:基于所述三维重建模型计算钢轨纵向位移,本发明还公开了采用该方法的系统,本发明提高了钢轨纵向位移检测的检测效率和准确性,且操作简单,易于实施。
  • 一种基于CNN的实时密集单目同步定位与构图系统-201810321355.9
  • 刘洪杰 - 深圳市九天睿芯科技有限公司
  • 2018-04-11 - 2019-10-22 - G06T7/55
  • 本发明的目的在于公开一种基于CNN的实时密集单目同步定位与构图系统,它包括一图像处理单元及一SLAM输出单元,图像处理单元包括输入帧处理单元和关键帧处理单元,RGB图像分别连接输入帧处理单元的输入端和关键帧处理单元的输入端,输入帧处理单元的输出端与关键帧处理单元相连接,关键帧处理单元的输出端连接SLAM输出单元;与现有技术相比,通过使用直接半密集方法作为基线,将视觉上明显不同的帧的子集搜集为关键帧,其位姿是基于位姿图优化的全局精准化;同时在每个帧输入时通过与其最近的关键帧之间的变换进行相机位姿变换,将CNN预测的语义分割紧密的与全局重建模式融合在一起,实现本发明的目的。
  • 一种基于特征点密度由聚焦堆栈估计深度的方法和装置-201710090688.0
  • 邱钧;何建梅;刘畅 - 北京信息科技大学
  • 2017-02-20 - 2019-10-22 - G06T7/55
  • 本发明公开了一种基于特征点密度由聚焦堆栈估计深度的方法和装置,所述方法包括:提取聚焦堆栈中每个图像的特征点,建立基于特征点密度的聚焦测度;建立引入特征点密度的加权聚焦测度的估计深度的模型:以采用SML聚焦测度为例,建立SML与特征点密度的加权线性混合聚焦测度作为深度估计的目标函数,实现对场景深度的估计和全聚焦图。本发明的方案,建立关于特征点密度的聚焦测度及建立线性加权聚焦测度,并构建基于聚焦测度的深度估计模型,获取场景的深度信息,以实现场景的全聚焦与三维重构,可为现实三维重构提供精确的深度信息并获取全聚焦图像。
  • 一种基于X-CT和图形分割的三维重构模型构建方法-201910589004.0
  • 宋红华;赵毅鑫;李鹏 - 中国矿业大学(北京)
  • 2019-07-02 - 2019-10-11 - G06T7/55
  • 本发明提供了一种新的基于P‑波波速、X‑CT扫描、三维重构技术、图形分割技术的三维重构模型网格构建方法,用于解决以往采用X‑CT扫描、三维重构技术构建基于真实试样的方法中X‑CT扫描试样不具有代表性、三维重构试样模型内部结构不一致性导致带来的误差。本发明通过P‑波波速对X‑CT扫描试样进行筛选,以选取代表性试样进行X‑CT扫描;之后,运用图像分割技术,对重构后试样体积进行分割,进而获得较多数量的三维重构模型网格,从而解决X‑CT扫描试样不具有代表性、三维重构试样模型内部结构不一致性导致带来的误差。
  • 结合高度图从无标记单目图像中恢复三维人体姿态的方法-201510970682.3
  • 耿卫东;杜宇;刘永豪;韩菲琳;桂义林;王镇 - 浙江大学
  • 2015-12-21 - 2019-10-01 - G06T7/55
  • 本发明公开了一种结合高度图从无标记单目图像中恢复三维人体姿态的方法,步骤如下:1)使用彩色图像和高度图像训练得到基于深度卷积网络的二维关节点识别模型;2)输入视频帧图像序列和相机参数,计算每帧图像对应的高度图;3)输入视频帧图像和步骤2)得到的高度图,使用步骤1)训练得到的二维关节点识别模型得到每帧图像中人体的二维关节点坐标;4)输入步骤3)得到的二维关节点坐标,根据优化模型恢复出人体三维姿态。本发明在二维关节点的识别过程中综合使用彩色图像和高度图像,提高了二维关节点的识别准确率;在从二维关节点恢复出三维人体姿态的优化模型中加入了时序一致性约束,使恢复出的三维人体姿态更加接近真实人体姿态。
  • 一种基于图像中边沿点信息的单目视觉测程方法-201610131438.2
  • 程农;杨盛;李清;田振 - 清华大学
  • 2016-03-08 - 2019-09-27 - G06T7/55
  • 本发明涉及一种基于图像中边沿点信息的无人机单目视觉测程的方法,属于无人机导航定位技术领域,该方法包括:从与无人机固连的下视单目相机捕获的图像序列中选择两帧构建初始地图和初始深度图,将第一帧取作地图中的第一个关键帧,并将第一帧对应的相机坐标系取为世界坐标系,完成初始化;再并行进行运动估计、地图构建和深度图估计三个线程:运动估计线程利用已知的地图和深度图信息,与当前帧进行对齐得到测程结果,并根据测程结果对已有的地图信息进行优化,地图构建和深度图估计线程同时运行以维护地图和深度图信息。本发明充分利用现代处理器的多核架构,能有效地利用图像中的边沿点信息,结合角点信息,提高了算法效率,具有更强的适应性。
  • 一种利用视频序列帧间相关性的深度图像计算方法-201710172103.X
  • 李杨;都思丹;石立;郭新年;彭成磊;董晨;陈叶朦;杨帆;陆胜;李明;陈旭东 - 南京大学
  • 2017-03-22 - 2019-09-20 - G06T7/55
  • 本发明公开一种利用视频序列帧间相关性的深度图像计算方法,包括:步骤1、对左右视点相机拍摄的图片进行校正;步骤2、对于第一帧的左右图片的点p,在最大视差搜索范围计算匹配代价,进行视差优化、视差细化,得到初始视差值d1;第一帧的视差梯度为g1;步骤3、对于下一帧的p点的计算,当p点不是异常点或边缘点,以上一帧p点的视差值为基准设定视差搜索范围,否则以最大视差搜索范围计算匹配代价,进行视差优化、视差细化,并得到当前帧的视差值及视差梯度,实现实时的立体匹配。本发明利用视频序列中上一帧的视差,大幅缩小了当前帧算法的计算量,能够在保证原有算法匹配精度的条件下,减小耗时,提高在实际应用场景中的效率。
  • 一种获得浅景深图像的方法-201910477102.5
  • 岳宇飞 - 岳宇飞
  • 2019-06-03 - 2019-09-17 - G06T7/55
  • 本发明公开了一种获得浅景深图像的方法,包括如下步骤:步骤1:平移相机,在移动中对目标拍摄两张或更多的图片;步骤2:从步骤1的图片中挑选两张或更多的目标清晰的图片作为基础图片;步骤3:将基础图片像素化,将基础图片叠加,保持所有基础图片中的目标完全重合;步骤4:对所有像素点进行如下处理:提取像素点当前位置所对应的每一张基础图片中对应位置的像素值,对所获得的所有像素值取均值,将计算所得的均值作为最终图片的像素值。本发明的获得浅景深图像的方法利用移动拍摄的方式获得多张基础图片,再对所有基础图片进行叠加后取平均值,获得目标基本不重影,但背景严重重影的图像。
  • 基于特征点的三维旋转运动检测与旋转轴定位方法-201610863740.7
  • 王兆其;李兆歆;夏岩钧 - 苏州中科广视文化科技有限公司
  • 2016-09-29 - 2019-09-17 - G06T7/55
  • 本发明公开了一种基于特征点的三维旋转运动检测与旋转轴定位方法,用于对等角度间距拍摄的图像序列中的物体进行三维旋转运动追踪以及旋转轴的计算,该方法包括如下步骤:(1)利用SIFT算法对图像序列中的相邻图片进行特征点提取与匹配;(2)使用SFM方法还原出相机位姿信息和物体的三维特征点位置信息;(3)对三维特征点进行运动追踪以及对旋转轴进行拟合计算。本发明对各种型号的相机拍摄下的图片序列均能很好的进行支持,该发明能更有效的对图像序列进行分析,以便更好的用于图像序列的编辑处理。
  • 基于图像提取的深度信息计算方法、装置及电子设备-201910502675.9
  • 郭鑫;邢一帆 - 中科创达(重庆)汽车科技有限公司
  • 2019-06-11 - 2019-09-10 - G06T7/55
  • 本发明实施例公开了一种基于图像提取的深度信息计算方法、装置及电子设备,涉及数据处理技术领域。该方法包括:对双摄设备获取到的目标图像进行区域提取,所述目标图像包括第一图像和第二图像,所述第一图像和所述第二图像分别由所述双摄设备的不同摄像头采集得到;在区域提取之后的图像上的不同区域进行特征点检测;基于所述第一图像和所述第二图像,查找所述特征点相关的对应点;利用所述对应点,生成所述目标图像的深度信息,所述深度信息用于生成与所述目标图像对应的深度图像。通过本申请的方案,提高了深度信息提取的准确度。
  • 一种基于改进匹配代价的分段树视差图获取方法-201910483502.7
  • 韩成;金龙斌;张超;卢时禹;胡汉平;杨华民;蒋振刚;李岩芳;李华;权巍;耿雪娜;徐春凤;姜珊 - 长春理工大学
  • 2019-06-04 - 2019-09-06 - G06T7/55
  • 本发明公开一种基于改进匹配代价的分段树视差图获取方法,包括以下步骤:对左、右图像进行像素点采集;建立矩阵;进行代价计算;转化无向连通图;转化最小生成树;计算相邻像素点间权重;代价聚合;获得左、右视差图;左右像素一致性;引入深度信息与色彩信息;重新进行代价聚合;获得最终视差图。针对弱纹理区域容易产生歧义匹配的缺陷,引入了颜色和梯度多维信息分量使得窗口的权值分配更加合理,增强像素点在弱纹理区域的代价量;并提出一种新型的分组策略,让符合视差一致性的像素点分到同一棵生成树上;在保持时间效率的同时,能生成更为精确的匹配结果。
  • 一种高度测量方法及装置-201710232959.1
  • 余小欢;钱锋;吴旷;姚金良;白云峰 - 杭州光珀智能科技有限公司
  • 2017-04-11 - 2019-09-03 - G06T7/55
  • 本申请公开了一种高度测量方法及装置,其中,所述高度测量方法基于深度相机实现,具体地,首先利用所述深度相机获取多帧背景深度图片并转换为多帧背景点云图片,然后利用所述多帧背景点云图片经过背景模型的提取、前景图片的提取、前景图片中边缘信息的提取、预设模板的匹配以及世界坐标和待测高度的计算获得每帧图像中被测物体的高度,实现了非接触式高度测量的目的;并且所述高度测量方法具有较好的可推广性、较好的鲁棒性、可实现全天候高度测量、不需要对深度相机进行应用前后的标定过程、不存在个人信息泄露风险的优点。
  • 深度图模型训练方法和装置-201910464165.7
  • 秦硕;李金鹏 - 北京百度网讯科技有限公司
  • 2019-05-30 - 2019-08-30 - G06T7/55
  • 本发明实施例提出一种深度图模型训练方法和装置,方法包括:通过初始模型获取训练样本的深度图,深度图包括具有预测深度值的有效像素点;基于各有效像素点,利用多个损失函数的损失值计算模型损失值,多个损失函数的损失值包括尺度不变损失值、梯度损失值以及顺序损失值中的至少两个;根据模型损失值对初始模型进行优化,以训练得到深度图模型。本发明实施例通过损失函数计算尺度不变损失值、梯度损失值以及顺序损失值,能够使得计算出的损失值更加有利于模型优化,提高模型的学习效率,加快模型训练的收敛速度。
  • 基于深度相机的3D图像传输及重建方法-201910203657.0
  • 姜光;焦磊磊;陈子豪;王亦聪 - 西安电子科技大学
  • 2019-03-18 - 2019-08-09 - G06T7/55
  • 本发明公开的本发明实施例提供的3D图像传输及重建方法,涉及图像处理技术领域,通过发送端根据相机标定方法,获取深度相机的内参及外参,持续获取同一时刻下、同一场景的深度图像和彩色图像并组合深度图像及彩色图像,生成混合帧图像,对混合帧图像进行编码,将内参、外参及混合帧图像发送至接收端;接收端接收该混合帧图像并对混合帧图像进行解码,得到混合帧图像对应的深度图像和彩色图像并对深度图像进行去噪及三角化处理,将深度图像的各个像素坐标投影到彩色图像中,得到3D图像,提高了3D图像的压缩比、恢复质量、重建效率及实用性。
  • 基于深度自适应滤波的彩色深度图像修复方法-201910332347.9
  • 何建军;裴雨听;齐文琴;郝思宇;汪泽睿;文青勇;刘健;廖敏;王丽萍;王艺蓉;何广平 - 成都理工大学
  • 2019-04-24 - 2019-08-06 - G06T7/55
  • 本发明公开了一种基于深度自适应滤波的彩色深度图像修复方法,用深度摄像头获取深度图像和于深度图像对应的彩色图像,提取它们的边缘、获得它们的距离图像,并根据深度图像的距离图像获得去除不相关边缘后的彩色边缘图像G1,再以深度图像边缘和G1的边缘为边界,分别以距离图像D1、距离图像D2的像素值递减方向为生长方向,得到掩模M1和掩模M2,对M1和M2进行逻辑与操作得到M3,这样得到的M3可以解决生长区域溢出的情况,避免噪声混入。根据M3能找到无效像素区域,计算该区域内各像素点的最优深度值,利用最优深度值对该区域内像素点进行填充,再根据深度图像噪声的特殊性,运用深度自适应滤波器对噪声进行去除,完成深度图像的修复。
  • 一种低成本的身体表面模型三维重建系统及方法-201910495684.X
  • 张慧 - 张慧
  • 2019-06-10 - 2019-08-02 - G06T7/55
  • 本发明涉及一种低成本的身体表面模型三维重建系统,包括扫描客户端、稠密重建系统和三维模型调整软件,其中,扫描客户端设为扫描用APP,用于对身体表面进行扫描,得到身体的图像帧;稠密重建系统通过三维重建服务器运行,用于对图像帧进行身体模型的稠密重建,并生成三维身体模型;三维模型调整软件用于读取生成的三维身体模型,并将其调整到人体的正常形态,进而生成支具模型,得到正常的身体表面模型。本发明还涉及利用上述身体表面模型三维重建系统构建身体模型的方法。通过使用本发明提供的系统进行三维重建,能够节省费用,且本发明重建方法的精度较高,能够广泛应用在三维重建技术领域。
  • 视差信息数据的置信度检测方法,装置与自动驾驶系统-201910004905.9
  • 孙钊;姜安;朱海涛;崔峰;刘永才;王欣亮;肖志鹏 - 北京中科慧眼科技有限公司
  • 2019-01-03 - 2019-07-05 - G06T7/55
  • 本发明提供一种视差信息数据的置信度检测方法,装置与自动驾驶系统,应用于双目相机系统。该视差信息数据的置信度检测方法包括:对从双目相机系统获取的左视图与右视图进行匹配相似度计算;基于所述匹配相似度计算所述左视图与所述右视图的视差信息数据;根据所述视差信息数据、所述左视图以及所述右视图进行置信度计算,并根据计算结果对所述左视图以及所述右视图进行一致性评估。本发明通过对视差信息数据进行置信度计算及输出,对双目相机系统获取的左视图与右视图进行结构一致性评估。
  • 一种基于深度学习和傅里叶域分析的图像深度估计算法-201910242784.1
  • 唐晓娇;陈丽芳 - 江南大学
  • 2019-03-28 - 2019-07-05 - G06T7/55
  • 本发明公开了一种基于深度学习和傅里叶域分析的图像深度估计算法,其包括,读取数据集里的图像对,将图像对输入提出的网络架构中获取重建视图;将图像对和重建视图带入损失函数,训练并确认网络架构,得到最初视差图;带入以裁剪比λ裁剪的图像对至确认的网络架构,获取视差映射候选对象;以及,融合视差映射候选对象,估计深度并显示于显示设备上;其中,所述图像对区分为左视图和右视图,所述重建视图区分为重建左视图和重建右视图;本发明基于深度学习的网络架构和傅里叶域分析无监督单目图像估计深度学习算法,有效提高了深度图精度和运动图像深度估计的精度,改进的网络架构,提升算法准确度和鲁棒性。
  • 一种深度信息确定方法、装置、电子设备及存储介质-201711322481.8
  • 柳睿;钱学锋;戴鑫 - 杭州海康威视数字技术股份有限公司
  • 2017-12-12 - 2019-06-21 - G06T7/55
  • 本发明实施例提供了一种深度信息确定方法、装置、电子设备及存储介质,所述方法包括:计算第一像素点的SAD匹配代价;计算所述第一像素点的CENSUS匹配代价;对计算得到的SAD匹配代价和CENSUS匹配代价进行代价融合,得到第一像素点的代价融合结果;将所得到的第一像素点的代价融合结果进行代价聚合,得到第一像素点的代价聚合结果;通过对所得到的第一像素点的代价聚合结果进行扫描线优化,从所得到的第一像素点的代价聚合结果中选择一个代价聚合结果作为所述第一像素点的深度信息。通过本发明实施例提供的技术方案,可以提高第一像素点的深度信息的准确性。
  • 估测图像中的深度的方法-201811391750.0
  • 石立龙;韩承勳 - 三星电子株式会社
  • 2018-11-21 - 2019-06-21 - G06T7/55
  • 本发明公开一种估测图像中的深度的结构光系统及方法。接收图像,其中所述图像是已在上面投射参考光图案的场景的图像。参考光图案的投影包括预定数目个子图案。基于硬码模板匹配技术或基于所接收图像的分块对应于参考光图案的子图案的机率来对分块与子图案进行匹配。如果使用查找表,则所述表可为机率矩阵,可包含预先计算的关联性得分或者可包含预先计算的类别标识。基于分块与子图案之间的不同来确定分块的深度的估测值。
  • 视差图获取方法、装置和设备及控制系统-201910186202.2
  • 揭泽群 - 腾讯科技(深圳)有限公司
  • 2019-03-12 - 2019-06-21 - G06T7/55
  • 本发明公开了一种视差图获取方法、装置和设备及控制系统,属于图像处理技术领域,用于提升视差预测的准确度。该方法包括:通过M个级联的特征提取层分别逐层对被拍摄对象的左目图像和右目图像进行特征提取,以得到每一层的左目图像特征集合和右目图像的特征图集合;其中,M为大于或者等于2的正整数;基于第M层特征提取层提取的左目特征图集合和右目特征图集合构建初始视差图;从第M‑1层开始,依次通过各特征提取层提取的左目特征图集合和右目特征图集合对视差图进行迭代更新,直到基于第一层迭代更新后的视差图获得最终视差图。
  • 图像处理方法、图像处理装置及存储介质-201811360744.9
  • 王珏;张哲斌 - 迈格威科技有限公司
  • 2018-11-15 - 2019-06-18 - G06T7/55
  • 一种图像处理方法、图像处理装置及存储介质。该图像处理方法包括:获取针对同一画面的深度图与目标图像,该画面中包括待处理对象;基于目标图像获取在画面中的待处理对象的轮廓;基于待处理对象的轮廓确定深度图中的待修复区域;优化深度图中的待修复区域的像素的深度值。该图像处理方法可以对深度图中的待修复区域进行优化,修正深度图中存在的质量问题。
  • 三维重建对象的方法和设备-201510590009.7
  • 李斐;刘汝杰 - 富士通株式会社
  • 2015-09-16 - 2019-06-18 - G06T7/55
  • 本发明公开了一种三维重建对象的方法和设备。该方法包括:获得三维空间中体素的初始局部TSDF值,每个初始局部TSDF值对应于多个深度图中的一个深度图;按对应的深度图,将初始局部TSDF值分组,至少一组初始局部TSDF值对应于不止一个深度图;针对每组初始局部TSDF值,得到该组的全局TSDF值;将所得到的各组的全局TSDF值作为初始局部TSDF值,求解最优化问题,以得到最终全局TSDF值;以及基于所得到的最终全局TSDF值,三维重建所述对象;其中,在所述最优化问题中,变量是体素的全局TSDF值和变换的参数,代价函数与下列因素相关:特定体素的全局TSDF值与该体素经变换对应的体素的初始局部TSDF值的差的平方的加权和,权重等于特定体素经变换对应的体素的对应组的权重。
  • 一种2D转3D深度估计方法-201610780883.1
  • 雷建军;张凝;侯春萍;张翠翠;郑凯夫;丛润民 - 天津大学
  • 2016-08-31 - 2019-06-04 - G06T7/55
  • 本发明属于图像处理以及立体视觉技术领域,为采用人工标记的方法对2D视频进行半自动的深度估计得到质量较高的深度视频序列,进而生成3D立体视频,从而基于2D视频生成3D视频。本发明采用的技术方案是,一种2D转3D深度估计方法,步骤如下:一、关键帧视差分配二、基于非局部随机游走的关键帧视差估计三、基于移动双边滤波的视差传播四、基于非局部随机游走的非关键帧深度优化。本发明主要应用于图像处理以及立体视觉应用场合。
  • 具有自我提升能力的金字塔双目深度估计模型-201811531857.0
  • 张锲石;程俊;杜聿博 - 中国科学院深圳先进技术研究院
  • 2018-12-14 - 2019-05-24 - G06T7/55
  • 本发明涉及深度学习、二维图像深度重建领域,具体涉及一种具有自我提升能力的金字塔双目深度估计模型,其主要包括以下步骤:1)搭建空间金字塔模块;2)进行代价整合;3)多层回归输出;4)计算损失函数。本发明在金子塔双目模型的基础上,利用SPN(空间转换网络)根据模型生成的视差图对双目图像进行重建,并根据重建图像与原图像之间的损失对模型进行训练从而模型可以在没有任何预处理雷达数据的情况下进行训练,在有预处理的雷达数据的情况下,经过监督训练之后的模型在测试时可以通过利用双目重建损失进行在线训练以提升其表现。
  • 一种单摄像头立体视觉方法-201811641513.5
  • 易定容;蒋威;孔令华 - 华侨大学;宁波五维检测科技有限公司
  • 2018-12-29 - 2019-05-14 - G06T7/55
  • 本发明属于3D传感器测量技术领域,提供了一种单摄像头立体视觉方法,其包括三个操作步骤:第一步图像获取,利用所述快照式多光谱摄像装置,进行一次曝光零时差采集N幅(N≥2)光谱图像;第二步聚焦清晰度计算:所述图像处理分析装置计算所述N≥2幅光谱图像在每一个像素(X,Y空间位置)聚焦清晰度;第三步深度探测:根据所述聚焦清晰度度,获取每一个像素所对应位置的纵向(即深度)Z信息,完成XYZ立体视觉。该方法克服双目立体视觉运算量大及激光3D视觉系统价格昂贵等缺点,在先进制造、智能机器人移动、无人驾驶汽车导航与避障等具有广泛应用价值。
  • 一种基于非刚体轨迹基的图像缺失值恢复方法-201610397584.X
  • 刘侍刚;李丹丹;彭亚丽;裘国永 - 陕西师范大学
  • 2016-06-07 - 2019-05-14 - G06T7/55
  • 本发明涉及一种基于非刚体轨迹基的图像缺失值恢复方法,首先利用轨迹基可以自定义的特点,假设非刚体由r个基元构成,所形成的图像矩阵的秩为3r+1,再对其进行奇异值分解,得到投影矩阵,再利用投影矩阵的性质恢复行向量和列向量的缺失值,再将这些恢复的缺失值代替图像的缺失值,多次迭代,直到能正确恢复缺失值位置,该方法的优点是在恢复缺失值的过程中不仅利用了列向量的性质,同时还利用了行向量的性质,并且对所有的图像及特征点都平等对待。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top