[发明专利]深度估计模型的训练方法、深度估计方法、装置及设备在审
申请号: | 202010611746.1 | 申请日: | 2020-06-30 |
公开(公告)号: | CN111784757A | 公开(公告)日: | 2020-10-16 |
发明(设计)人: | 叶晓青;谭啸;孙昊 | 申请(专利权)人: | 北京百度网讯科技有限公司 |
主分类号: | G06T7/55 | 分类号: | G06T7/55;G06N3/04;G06N3/08 |
代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 张娜;刘芳 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 估计 模型 训练 方法 装置 设备 | ||
本申请公开了深度估计模型的训练方法、深度估计方法、装置及设备,涉及计算机视觉、深度学习领域。具体实现方案为:获取多个图像集,多个图像集的内参不同,其中,每个图像集包括至少一个原始深度图,同一个图像集中包括的原始深度图的内参相同;对多个图像集进行内参处理,得到多个目标图像集,多个目标图像集的内参相同;根据多个目标图像集训练神经网络,得到深度估计模型。由于在基于深度图训练神经网络之前,对多个内参不同的图像集中原始深度图进行了内参处理,使得多个内参不同的图像集中原始深度图的内参统一,之后再用于神经网络的训练时,能够提高深度估计的准确度。
技术领域
本申请实施例涉及图像处理中的计算机视觉、深度学习领域,尤其涉及一种深度估计模型的训练方法、深度估计方法、装置及设备。
背景技术
目前,单目深度估计是基于多个单目相机拍摄的图像训练一神经网络。之后,将待估计的图像输入训练好的神经网络,以实现图像深度估计。
在上述训练过程中,需要大量的训练图像集,而为了提高训练图像集的生成效率,往往需要多个单目相机同时进行拍摄,通过该种方法得到的训练图像集,往往会导致单目深度估计不准确。
发明内容
本申请提供了一种用于提高单目深度估计准确度的深度估计模型的训练方法、深度估计方法、装置及设备。
根据本申请的第一方面,提供了一种深度估计模型的训练方法,包括:获取多个图像集,所述多个图像集的内参不同,其中,每个图像集包括至少一个原始深度图,同一个图像集中包括的原始深度图的内参相同;对所述多个图像集进行内参处理,得到多个目标图像集,所述多个目标图像集的内参相同;根据所述多个目标图像集训练神经网络,得到深度估计模型。
根据本申请的第二方面,提供了一种深度估计方法,包括:获取待估计图像;将所述待估计图像输入通过如第一方面所述的训练方法训练得到的深度估计模型,得到与所述待估计图像对应的深度图。
根据本申请的第三方面,提供了一种深度估计模型的训练装置,包括:第一获取模块,用于获取多个图像集,所述多个图像集的内参不同,其中,每个图像集包括至少一个原始深度图,同一个图像集中包括的原始深度图的内参相同;内参处理模块,用于对所述多个图像集进行内参处理,得到多个目标图像集,所述多个目标图像集的内参相同;训练模块,用于根据所述多个目标图像集训练神经网络,得到深度估计模型。
根据本申请的第四方面,提供了一种深度估计装置,包括:第二获取模块,用于获取待估计图像;输入模块,用于将所述待估计图像输入通过如第一方面所述的训练方法训练得到的深度估计模型,得到与所述待估计图像对应的深度图。
根据本申请的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的方法。
根据本申请的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面所述的方法。
根据本申请的技术解决了现有的单目深度估计不准确的问题。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例的应用场景示意图;
图2是本申请实施例的深度估计模型的训练原理示意图;
图3是本申请实施例的深度估计模型的训练方法的流程图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京百度网讯科技有限公司,未经北京百度网讯科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010611746.1/2.html,转载请声明来源钻瓜专利网。