[发明专利]深度模型训练方法及装置、图像检索方法及装置有效
申请号: | 201710404705.3 | 申请日: | 2017-06-01 |
公开(公告)号: | CN107273458B | 公开(公告)日: | 2020-12-11 |
发明(设计)人: | 邓玥琳;高光明;丁飞;胡先军 | 申请(专利权)人: | 百度在线网络技术(北京)有限公司 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06N3/04;G06N3/08 |
代理公司: | 北京品源专利代理有限公司 11332 | 代理人: | 巩克栋 |
地址: | 100085 北京市*** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 深度 模型 训练 方法 装置 图像 检索 | ||
本发明提供一种深度模型训练方法及装置、图像检索方法及装置,该深度模型训练方法包括:根据深度模型抽取的特征数据分别计算提升结构化特征嵌入设计模式的第一损失值和对比嵌入设计模式的第二损失值;根据该第一损失值和该第二损失值生成融合损失值;根据该融合损失值训练深度模型。本发明通过在提升结构化特征嵌入设计模式的损失层的基础上,融合对比嵌入设计模式的损失层,从而在训练过程中增加了负例的惩罚权重,在保持模型易于收敛的同时提升了特征数据的准确性,降低了误检率。
技术领域
本申请涉及图像检索技术领域,具体涉及一种深度模型训练方法及装置、图像检索方法及装置。
背景技术
目前现有的检索相似图像的图像检索技术方案中,通常包括以下两类方法:第一类利用传统计算机视觉方法抽取出图片特征,再对特征进行距离度量并进行排序给出检索结果;第二类利用深度学习模型抽取出图片特征,再对特征进行距离度量并进行排序给出检索结果。
上述第一类技术方案虽然准确率较高,但存在泛化能力不足的缺陷,尤其是基于语义的相似;第二类技术方案的泛化能力不错,但存在准确率有待提升的缺陷。
具体地,在第二类技术方案中,采用对比嵌入(Contrastive embedding)或三元嵌入(Triplet embedding)的损失函数设计模式的方法存在只能利用构造好的成对或三元数据进行训练,训练时存在模型不易收敛的缺陷;而采用提升结构化特征嵌入(Liftedstructured feature embedding)的损失函数设计模式的方法对负例(即不相似的样本)的约束较弱,导致最终预测时大部分情况是负例,存在容易引起误检的缺陷。
此外,在实际应用时,当待检索的全库的数据量级很大时,特征数据的数据量会很大,其存储和运算会消耗非常多的系统资源。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种模型易于收敛,对负例约束较强以提升特征数据的准确性,从而降低误检率的深度模型训练方法及装置、图像检索方法及装置;并进一步减少特征数据所消耗的系统资源。
第一方面,本发明提供一种深度模型训练方法,该方法包括:
根据深度模型抽取的特征数据分别计算提升结构化特征嵌入设计模式的第一损失值和对比嵌入设计模式的第二损失值;
根据该第一损失值和该第二损失值生成融合损失值;
根据该融合损失值训练深度模型。
第二方面,本发明提供一种图像检索方法,该方法包括:
分别对待检索图像和数据库中的各对比图像进行预处理;
根据如上所述的深度模型训练方法所训练得到的深度模型分别对预处理后的待检索图像和各对比图像进行特征抽取以获得特征数据;
对待检索图像的特征数据和各对比图像的特征数据进行相似度计算;
根据相似度计算的结果生成图像检索结果。
第三方面,本发明提供一种深度模型训练装置,包括第一损失计算单元、第二损失计算单元、损失融合单元和训练单元。
其中,第一损失计算单元配置用于根据深度模型抽取的特征数据计算提升结构化特征嵌入设计模式的第一损失值;第二损失计算单元配置用于根据深度模型抽取的特征数据计算对比嵌入设计模式的第二损失值;损失融合单元配置用于根据第一损失值和第二损失值生成融合损失值;训练单元配置用于根据融合损失值训练深度模型。
第四方面,本发明提供一种图像检索装置,包括预处理单元、特征抽取单元、相似度计算单元和检索结果生成单元。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于百度在线网络技术(北京)有限公司,未经百度在线网络技术(北京)有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201710404705.3/2.html,转载请声明来源钻瓜专利网。