[发明专利]用于离焦量确定的模型训练方法及装置在审
| 申请号: | 202210928965.1 | 申请日: | 2022-08-03 |
| 公开(公告)号: | CN115314635A | 公开(公告)日: | 2022-11-08 |
| 发明(设计)人: | 史会莹 | 申请(专利权)人: | OPPO广东移动通信有限公司 |
| 主分类号: | H04N5/232 | 分类号: | H04N5/232;G06V10/778;G06V10/764;G06V10/766;G06V10/82;G06V10/774 |
| 代理公司: | 深圳市联鼎知识产权代理有限公司 44232 | 代理人: | 刘抗美 |
| 地址: | 523860 广东*** | 国省代码: | 广东;44 |
| 权利要求书: | 查看更多 | 说明书: | 查看更多 |
| 摘要: | |||
| 搜索关键词: | 用于 离焦量 确定 模型 训练 方法 装置 | ||
1.一种用于离焦量确定的模型训练方法,其特征在于,包括:
获取初始训练数据,所述初始训练数据包括多组子训练数据,每组子训练数据中包括物距相同、焦距相同且亮度不同的多对参考左右视差图以及所述参考左右视差图对应的参考离焦量;
利用亮度大于等于预设亮度的参考左右视差图对应的参考离焦量,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量,以确定目标训练数据;
基于所述目标训练数据训练离焦量确定网络。
2.根据权利要求1所述的方法,其特征在于,所述利用亮度大于等于预设亮度的参考左右视差图对应的参考离焦量,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量,包括:
确定一目标亮度,所述目标亮度大于或等于所述预设亮度;
利用所述目标亮度的参考左右视差图对应的参考离焦量,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量。
3.根据权利要求1所述的方法,其特征在于,所述利用亮度大于等于预设亮度的参考左右视差图对应的参考离焦量,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量,包括:
利用亮度大于等于预设亮度的参考左右视差图对应的参考离焦量的平均值,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量。
4.根据权利要求1-3任一项所述的方法,其特征在于,基于所述目标训练数据训练离焦量确定网络,包括:
计算所述子训练数据中的参考离焦量的平均离焦量;
利用所述平均离焦量更新所述组子训练数据中各所述参考左右视差图对应的参考离焦量。
5.根据权利要求1所述的方法,其特征在于,基于所述目标训练数据训练离焦量确定网络,包括:
构建离焦量确定网络;
对所述参考左右视差图进行特征提取得到多组参考特征向量对;
基于所述参考特征向量对构建视差矩阵;
基于所述参考视差矩阵以及所述参考离焦量更新所述离焦量确定网络。
6.根据权利要求5所述的方法,其特征在于,所述基于所述参考特征向量对构建视差矩阵,包括:
将所述参考特征向量对中的两个参考特征向量的内积作为所述视差矩阵。
7.一种离焦量确定方法,其特征在于,包括:
获取待测左右视差图,并利用权利要求1-6任一项所述的训练后的所述离焦量确定网络确定所述待测左右视差图对应的目标离焦量。
8.根据权利要求7所述的方法,其特征在于,利用训练后的所述离焦量确定网络计算所述待测左右视差图对应的目标离焦量;
对所述待测左右视差图进行特征提取得到目标特征向量对;
根据所述目标特征向量对确定目标视差矩阵;
将所述目标视差矩阵输入至所述离焦量确定网络得到所述目标离焦量。
9.一种用于离焦量确定的模型训练装置,其特征在于,包括:
获取模块,用于获取初始训练数据,所述初始训练数据包括多组子训练数据,每组子训练数据中包括物距相同、焦距相同且亮度不同的多对参考左右视差图以及所述参考左右视差图对应的参考离焦量;
更新模块,用于利用目标亮度下的参考左右视差图对应的参考离焦量,更新同一组子训练数据中亮度低于所述预设亮度的参考左右视差图对应的参考离焦量,以确定目标训练数据,所述预设亮度小于等于所述目标亮度;
训练模块,用于基于所述目标训练数据训练离焦量确定网络。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至8中任一项所述方法。
11.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
存储器,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至8中任一项所述方法。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于OPPO广东移动通信有限公司,未经OPPO广东移动通信有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210928965.1/1.html,转载请声明来源钻瓜专利网。





