[发明专利]一种景别类型判断方法、装置、电子设备和存储介质在审
申请号: | 202110358366.6 | 申请日: | 2021-04-01 |
公开(公告)号: | CN113705309A | 公开(公告)日: | 2021-11-26 |
发明(设计)人: | 曹琼;雒雅楠;车翔 | 申请(专利权)人: | 腾讯科技(深圳)有限公司 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/46;G06K9/62 |
代理公司: | 深圳翼盛智成知识产权事务所(普通合伙) 44300 | 代理人: | 李汉亮 |
地址: | 518057 广东省深圳*** | 国省代码: | 广东;44 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 类型 判断 方法 装置 电子设备 存储 介质 | ||
1.一种景别类型判断方法,其特征在于,包括:
获取景深估计模型,所述景深估计模型基于无标注的样本图像和所述样本图像对应的景深估计样本图像训练得到,所述景深估计样本图像为所述景深估计模型对所述样本图像提取样本深度特征图后,基于所述样本深度特征图进行图像重建得到,所述样本深度特征图包括所述样本图像中各像素点的景深信息;
通过所述景深估计模型,提取待判断图像的深度特征图,所述深度特征图包括所述待判断图像中各像素点的景深信息;
基于所述深度特征图中各像素点的景深信息,计算得到所述待判断图像的目标景深信息;
基于预设的景深信息与景别类型的对应关系,以及所述目标景深信息,确定所述待判断图像对应的目标景别类型。
2.根据权利要求1所述的景别类型判断方法,其特征在于,所述待判断图像为待判断视频中的视频帧,所述待判断视频中包含至少两个所述视频帧;
所述通过所述景深估计模型,提取待判断图像的深度特征图,包括:
分别将所述待判断视频中的各视频帧作为待判断图像,通过所述景深估计模型,提取各所述待判断图像的深度特征图;
所述基于预设的景深信息与景别类型的对应关系,以及所述目标景深信息,确定所述待判断图像对应的目标景别后,还包括:
计算所述待判断视频中各所述待判断图像之间的相似度;
根据所述相似度,确定所述待判断视频中的至少一组视频帧,每一组视频帧中,各所述视频帧之间的相似度大于预设相似阈值;
若所述每一组视频帧中,存在所述待判断视频中连续的视频帧,则确定所述连续的视频帧为一组目标视频帧;
根据每组目标视频帧中,各所述待判断图像对应的目标景别类型,确定每组所述目标视频帧的景别类型;
根据每组所述目标视频帧的景别类型,为每组所述目标视频帧添加对应的景别类型标签。
3.根据权利要求2所述的景别类型判断方法,其特征在于,所述根据所述相似度,确定所述待判断视频中的至少一组视频帧,包括:
从所述待判断视频的各视频帧中,确定预设数量的视频帧为聚类簇中心点的中心视频帧;
获取所述待判断视频中的视频帧与各所述中心视频帧之间的相似度;
将所述待判断视频中的视频帧,划分到对应的目标中心视频帧所在的聚类簇中,其中,所述视频帧与所述对应的目标中心视频帧的相似度不低于预设相似度阈值;
基于各所述聚类簇中的视频帧,选择各所述聚类簇的新的中心视频帧,返回执行所述获取所述待判断视频中的视频帧与各所述中心视频帧之间的相似度的步骤,直到满足聚类结束条件为止;
将每个所述聚类簇中的视频帧,分别确定为一组视频帧。
4.根据权利要求1所述的景别类型判断方法,其特征在于,所述基于预设的景深信息与景别类型的对应关系,以及所述目标景深信息,确定所述待判断图像对应的目标景别类型前,还包括:
确定所述待判断图像中的目标拍摄对象,计算所述目标拍摄对象在所述待判断图像中的目标面积占比;
所述基于预设的景深信息与景别类型的对应关系,以及所述目标景深信息,确定所述待判断图像对应的目标景别类型,包括:
基于预设的景深信息和面积占比,与景别类型的对应关系,以及所述待判断图像的所述目标景深信息和所述目标面积占比,确定所述待判断图像对应的目标景别类型。
5.根据权利要求4所述的景别类型判断方法,其特征在于,所述确定所述待判断图像中的目标拍摄对象,计算所述目标拍摄对象在所述待判断图像中的目标面积占比,包括:
确定所述待判断图像中属于预设对象类型的拍摄对象;
若确定出所述拍摄对象的数量为一个,将所述拍摄对象确定为目标拍摄对象,计算所述目标拍摄对象在所述待判断图像中的目标面积占比;
若确定出所述拍摄对象的数量为至少两个,计算各所述拍摄对象在所述待判断图像中的面积占比,根据所述面积占比,从所述拍摄对象中确定目标拍摄对象,将所述目标拍摄对象对应的面积占比确定为目标面积占比。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于腾讯科技(深圳)有限公司,未经腾讯科技(深圳)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110358366.6/1.html,转载请声明来源钻瓜专利网。