[发明专利]基于组对深度特征学习的多视图三维模型检索方法及系统有效
申请号: | 202010086644.2 | 申请日: | 2020-02-11 |
公开(公告)号: | CN111382300B | 公开(公告)日: | 2023-06-06 |
发明(设计)人: | 刘丽;陈秀秀;张龙;张化祥;高爽;刘冬梅 | 申请(专利权)人: | 山东师范大学 |
主分类号: | G06F16/583 | 分类号: | G06F16/583 |
代理公司: | 济南圣达知识产权代理有限公司 37221 | 代理人: | 董雪 |
地址: | 250014 山*** | 国省代码: | 山东;37 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 深度 特征 学习 视图 三维 模型 检索 方法 系统 | ||
1.基于组对深度特征学习的多视图三维模型检索方法,其特征在于,包括:
获取待检索三维模型不同角度的二维视图,提取每一个二维视图的初始视图描述符;
对上述的多个初始视图描述符进行聚合,获得最终的视图描述符;
分别提取最终的视图描述符的潜在特征和类别特征,其中,采用自编码器挖掘二维视图描述符的潜在特征,具体为:
定义改进的中心损失函数来减小类内数据的距离并增大类间数据的距离,所述中心损失函数具体为:
其中,c+∈Rd表示特征相应的类中心,c-∈Rd为距离类中心c+最近的一个样本中心,d表示特征维度,δ表示距离边界;N表示批处理的大小,si表示自编码器网络的特征嵌入;函数L2(·)表示L2范式;F(si)表示encoder的输出,即潜在特征向量;
训练期间,将改进的中心损失函数与标签损失结合使用,具体为:
其中,yi表示标签数据,LCE表示用于对F(si)实例进行分类的交叉熵损失;
利用深度学习方法,重构损失如下:
其中,si表示第i个三维模型的视图描述符,N表示训练数据的个数;
将中心损失、标签损失和重构损失进行加权求和,以实现更加具有区别性和鲁棒性的特征表示;
将所述潜在特征和类别特征进行加权组合,形成形状描述符;
将得到的形状描述符与数据库中三维模型的形状描述符进行相似性计算,实现多视图三维模型的检索。
2.如权利要求1所述的基于组对深度特征学习的多视图三维模型检索方法,其特征在于,使用可扩展的卷积神经网络来提取三维模型的初始视图描述符,具体为:
每一个三维模型采用多视图表示;
多个视图分别输入到并行的参数共享卷积神经网络中;
对于每一个视图,卷积神经网络输出一个d维的特征向量;
每一个三维模型采用初始视图描述符来表示;所述初始视图描述符根据渲染顺序来堆叠所述特征向量得到。
3.如权利要求1所述的基于组对深度特征学习的多视图三维模型检索方法,其特征在于,利用生成对抗网络的判别器根据判别分数提取二维视图的类别特征,具体为:
设计n个基于生成对抗网络判别器来挖掘三维模型的类别特征F2,判别器用D={D1,D2,D3,…,Dn}来表示;
将三维模型的视图描述符作为判别器的输入;
假设数据的类标签y={y1,y2,y3,…,yn}和判别器D={D1,D2,D3,…,Dn}之间是一一对应的关系,对于第i类特征数据而言,只有在对应的判别器Di中被判别为1,在其他判别器中均为0。
4.如权利要求1所述的基于组对深度特征学习的多视图三维模型检索方法,其特征在于,将所述潜在特征和类别特征进行加权组合,形成形状描述符,具体为:
LB=αF1+βF2
其中,LB为三维模型特征,F1表示潜在特征,F2表示类别特征,α和β分别表示权重系数。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山东师范大学,未经山东师范大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010086644.2/1.html,转载请声明来源钻瓜专利网。