[发明专利]一种基于卷积神经网络的深度图置信度估计方法有效
| 申请号: | 202110313028.0 | 申请日: | 2021-03-24 |
| 公开(公告)号: | CN113096175B | 公开(公告)日: | 2023-10-24 |
| 发明(设计)人: | 李兆歆;王兆其;张小格;朱登明;朱正刚 | 申请(专利权)人: | 苏州中科广视文化科技有限公司 |
| 主分类号: | G06T7/55 | 分类号: | G06T7/55;G06V10/82;G06V10/75;G06V10/52;G06V10/80;G06N3/0442;G06N3/0464;G06N3/048;G06N3/0455;G06N3/09 |
| 代理公司: | 苏州见山知识产权代理事务所(特殊普通合伙) 32421 | 代理人: | 胡益萍 |
| 地址: | 215400 江苏省苏州*** | 国省代码: | 江苏;32 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 一种 基于 卷积 神经网络 深度 置信 估计 方法 | ||
本发明公开了一种基于卷积神经网络的深度图置信度估计方法,用于多目立体匹配算法所生成深度图的质量评估和后处理操作,该方法包括如下步骤:由多目立体匹配算法生成的深度图计算截断符号距离函数图和法线图;利用U型网络结构对所述截断符号距离函数图、法线图和彩色图进行特征提取,得到特征图;使用卷积长短时记忆结构、预测模块、细化模块和多监督方法由所述特征图预测深度图的置信度并细化估计结果。本发明能对各种多目立体匹配算法所生成的深度图进行质量评估,能鲁棒地估计出多目立体匹配中的深度图置信度,以利于多目立体匹配算法的评估和对深度图的后处理。
技术领域
本发明涉及计算机视觉与深度学习领域,具体是一种利用卷积神经网络对多视立体匹配中的中间结果进行特征提取及置信度预测,以完成对深度图的质量评估。
背景技术
深度图质量评估是计算机视觉领域的一个基本课题,目前基于深度学习的方法基于单目或双目立体匹配输出的深度图和原始彩色图,构建卷积神经网络预测得到置信度图,这种方法无法充分利用多目立体匹配得到的多模态数据,并且由于网络结构简单而产生较低的精度。
发明内容
本发明的目的是为了解决现有技术的不足,提供一种基于卷积神经网络的深度图置信度估计方法,从多视立体匹配算法所估计的中间结果中提取特征并预测深度图置信度的技术问题。
为了实现以上目的,本发明所述的一种基于卷积神经网络的深度图置信度估计方法,该方法的具体步骤如下:
一种基于卷积神经网络的深度图置信度估计方法,该方法的具体步骤如下:
由多目立体匹配算法生成的深度图计算截断符号距离函数图和法线图;
利用U型网络结构对所述截断符号距离函数图、法线图和彩色图进行特征提取,得到特征图;
使用卷积长短时记忆结构、预测模块、和细化模块由所述特征图预测深度图的置信度并通过多监督方法细化估计结果。
进一步地,所述由多目立体匹配算法生成的深度图计算截断符号距离函数图和法线图,包括:
像素和其4-邻域构成局部窗口,假设窗口内的点所对应的三维点在同一个平面上,则从所述三维点构成的向量中,任选两个不在同一平面的向量进行叉乘,即得到所述像素对应的法线;
多目立体匹配的几何误差用三维点的Z坐标与平面深度之差来表示,所述几何误差是三维点到平面的距离的近似,将几何误差映射到预设范围内,并加权处理,使用逆深度来计算截断符号距离函数图。
进一步地,所述U型网络结构提取图像的高层次语义信息,包括编码和解码两个部分,每个编码子模块包括卷积、批归一化、非线性激活和最大池化四个操作,每个解码子模块包括转置卷积、卷积、批归一化和非线性激活四个操作。
进一步地,所述利用U型网络结构对所述截断符号距离函数图、法线图和彩色图进行特征提取,得到特征图,包括:
(a)对输入图像进行编码:每个编码子模块的输入为前一个子模块的输出,经过每个子模块后输出特征图的高和宽各缩小到输入的1/2,通道数增加到输入的2倍,保留每个子模块的卷积结果用于解码;
(b)对编码模块的输出进行解码:每个解码子模块的输入为前一个子模块的输出,经过每个子模块后输入特征图的高和宽各增加到输入的2倍,通道数减小到输入的1/2。
进一步地,所述使用卷积长短时记忆结构、预测模块、和细化模块由所述特征图预测深度图的置信度,包括:多次迭代,在每次迭代中,使用卷积长短时记忆结构保留特征图在多次迭代时的长时和短时记忆,之后使用卷积层构成的预测模块得到每次迭代的置信度图,使用由卷积层构成的细化模块对预测得到的结果进行细化。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于苏州中科广视文化科技有限公司,未经苏州中科广视文化科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110313028.0/2.html,转载请声明来源钻瓜专利网。





