[发明专利]场景深度的确定方法、装置、设备及存储介质有效
| 申请号: | 201911105141.9 | 申请日: | 2019-11-13 |
| 公开(公告)号: | CN111047634B | 公开(公告)日: | 2023-08-08 |
| 发明(设计)人: | 彭亮;邓丹;钱炜 | 申请(专利权)人: | 杭州飞步科技有限公司 |
| 主分类号: | G06T7/50 | 分类号: | G06T7/50;G06T7/33;G06T7/11;G06T17/00 |
| 代理公司: | 北京同立钧成知识产权代理有限公司 11205 | 代理人: | 吴会英;刘芳 |
| 地址: | 310012 浙江省杭州市西湖*** | 国省代码: | 浙江;33 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 场景 深度 确定 方法 装置 设备 存储 介质 | ||
1.一种场景深度的确定方法,其特征在于,所述方法应用于电子设备,所述电子设备与双目视觉传感器进行通信,所述方法包括:
获取所述双目视觉传感器采集的第一左右图像;
采用第一视差网络模型对所述第一左右图像进行立体匹配,以获得第一视差图,所述第一视差网络模型是以计算每对第二左图像和对应的第一伪图像中除遮挡区域外的有效区域的第一图像相似性损失,以对第二视差网络模型训练至收敛后得到的;
利用双目视觉传感器的参数将所述第一视差图转换为对应场景的深度;
所述利用双目视觉传感器的参数将所述第一视差图转换为对应场景的深度,包括:
确定所述第一视差图的遮挡区域;
采用遮挡区域的邻域视差值替换所述遮挡区域,以得到修复后的视差图;
利用双目视觉传感器的参数将所述修复后的视差图转换为对应场景的深度;
所述采用第一视差网络模型对所述第一左右图像进行立体匹配,以获得第一视差图之前,还包括:
确定各第一训练样本中第二左图像中的遮挡区域,所述第一训练样本包括第二左右图像;
将所述各第一训练样本输入至所述第二视差网络模型中,以输出各第一训练样本对应的第二视差图;
根据各所述第二视差图和对应的第二右图像确定对应的第一伪左图像,确定各第一伪左图像中的遮挡区域;
计算每对第二左图像和第一伪左图像中除遮挡区域外的有效区域的第一图像相似性损失;
根据各所述第一图像相似性损失对所述第二视差网络模型进行训练至收敛,以得到所述第一视差网络模型。
2.根据权利要求1所述的方法,其特征在于,所述确定各第一训练样本中第二左图像中的遮挡区域,包括:
将各所述第一训练样本输入至第三视差网络模型中,以输出各第一训练样本对应的第三视差图;
根据所述第二左图像、对应的第三视差图及第二右图像确定所述遮挡区域。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第二左图像、对应的第三视差图及第二右图像确定所述遮挡区域,包括:
获取所述第二左图像中的各第一像素点坐标值对应的第三视差图中的视差坐标值和第二右图像中的第二像素点坐标值;
若多个第一像素点坐标值对应的视差坐标值不同且第二像素点坐标值相同,则将该多个第一像素点确定为遮挡点;
将所述遮挡点构成的区域确定为所述遮挡区域。
4.根据权利要求2所述的方法,其特征在于,所述将各所述第一训练样本输入至第三视差网络模型中,以输出各第一训练样本对应的第三视差图之前,还包括:
获取第二训练样本,所述第二训练样本包括第三左右图像;
采用初始视差网络模型对所述第三左右图像进行立体匹配,以输出各第二训练样本对应的第四视差图;
根据各所述第四视差图和对应的第三右图像确定对应的第二伪左图像;
计算每对第三左图像和第二伪左图像中的第二图像相似性损失;
根据各所述第二图像相似性损失对所述初始视差网络模型进行训练至收敛,以得到所述第三视差网络模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于杭州飞步科技有限公司,未经杭州飞步科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201911105141.9/1.html,转载请声明来源钻瓜专利网。





