[发明专利]一种基于卷积神经网络的双框架估计深度和运动方法有效

专利信息
申请号: 201710025984.2 申请日: 2017-01-13
公开(公告)号: CN106780543B 公开(公告)日: 2019-06-28
发明(设计)人: 夏春秋 申请(专利权)人: 深圳市唯特视科技有限公司
主分类号: G06T7/207 分类号: G06T7/207;G06N3/04
代理公司: 暂无信息 代理人: 暂无信息
地址: 518057 广东省深圳市高新技术产业园*** 国省代码: 广东;44
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明中提出的一种基于卷积神经网络的图像像素分类方法,其主要内容包括:图像输入、自助网络处理、迭代处理、图像细化、获得估计结果,其过程为,采用卷积网络估计深度和相机运动,它包含三个阶段:从场景数据集采样图像对并丢弃具有高光一致性误差的图像对;接下来,预处理后的图像对输入自助网络中分别计算光流、深度和相机运动;然后,经由迭代网络多次迭代反复改进现有的估计结果;最后由细化网络精细化后获得高分辨率深度图和运动估计。本发明的网络明显优于传统的运动结构,结果更准确和更鲁棒;与从单个图像估计深度的网络不同,本网络学习匹配的概念,可以利用运动视差,从而处理新类型的场景,并且允许估计运动。
搜索关键词: 一种 基于 卷积 神经网络 框架 估计 深度 运动 方法
【主权项】:
1.一种基于卷积神经网络的双框架估计深度和运动方法,其特征在于,主要包括:(一)图像输入,具体包括:输入有深度和相机姿势的室内场景图像作为场景数据集,包括卡通、写实的多种不同场景;从数据集中采样图像对时,自动丢弃具有高光一致性误差的图像对,并分割数据集,使得相同的场景不会同时出现在训练集和测试集中;(二)通过自助网络输出初始深度和运动估计,具体包括:自助网络获取图像对作为输入,并输出初始深度和运动估计;自助网络由第一编码器‑解码器网络及第二编码器‑解码器网络组成,第一编码器‑解码器网络用于计算光流,第二编码器‑解码器网络用于计算深度和相机运动;(三)利用迭代网络改进深度法线和运动估计,具体包括:使用两个编码器‑解码器网络组成迭代网络进行迭代处理,训练迭代网络以改进现有的深度、法线和运动估计;迭代网络的架构与自助网络相同,但需要额外的输入;将由自助网络或迭代网络的先前迭代所估计的深度图和相机运动转换成光流场,并将其与其它输入一起反馈到所述迭代网络的第一编码器‑解码器中;同样,使用先前的相机运动预测将光流转换为深度图,并将其与光流一起反馈到所述迭代网络的第二编码器‑解码器中;(四)使用细化网络调整输入图像分辨率,具体包括:通过自助网络和迭代网络得到低分辨率图像对,即64×48作为输入,细化网络将预测上调至全输入图像分辨率;它获得全分辨率输入对和最近邻上采样深度和法线场作为输入,输出256×192的高分辨率图像对;(五)通过计算得到第一视图中的深度图和第二视图的相机运动作为估计结果。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于深圳市唯特视科技有限公司,未经深圳市唯特视科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710025984.2/,转载请声明来源钻瓜专利网。

×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top