[发明专利]一种基于分解式图匹配的三维模型检索方法有效
申请号: | 201810380046.9 | 申请日: | 2018-04-25 |
公开(公告)号: | CN108717424B | 公开(公告)日: | 2021-06-11 |
发明(设计)人: | 刘安安;聂为之;苏育挺 | 申请(专利权)人: | 鹰霆(天津)科技有限公司 |
主分类号: | G06F16/583 | 分类号: | G06F16/583;G06T17/00 |
代理公司: | 天津市北洋有限责任专利代理事务所 12201 | 代理人: | 李林娟 |
地址: | 300113 天津市南开区长江道59*** | 国省代码: | 天津;12 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 分解 匹配 三维 模型 检索 方法 | ||
本发明公开了一种基于分解式图匹配的三维模型检索方法,包括:根据因式分解原理,对数据库中的任意两个三维模型进行成对图匹配,计算得到初始匹配矩阵和分解式矩阵;对分解式矩阵进行矩阵变换,生成新的成对特征、以及分解式图匹配结构,根据奇异值分解方法对成对特征进行分解;计算分解式图匹配的相似性得分,根据最优化原理生成最终匹配矩阵,该匹配矩阵的模是数据库中两两三维模型之间相似度;根据不同模型间的相似度值进行排序,从而实现三维模型的检索。本发明有效避免了图匹配过程中因计算成对亲和矩阵而带来的时间和空间上较大运算成本,将传统图匹配方法与因式分解相结合,高效利用三维模型全部视图特征,提高了图匹配检索效率和精度。
技术领域
本发明涉及三维模型检索领域,尤其涉及一种基于分解式图匹配的三维模型检索方法。
背景技术
与传统的二维图片相比,三维模型可以在物体的纹理、形状、颜色特征等方面表现的更为全面,展示形式也更为丰富和真实。随着计算机视觉以及视觉采集设备的大量普及,三维模型将会逐步取代传统的二维图片,越来越广泛地应用于社会生产生活的各个领域,如计算机辅助设计(Computer Aided Design,CAD)、虚拟现实、娱乐、医学成像等领域。面对着海量增长的三维模型,如今计算机视觉领域一个亟待解决的问题就是如何有效的实现描述、检索、浏览三维数据。现有的三维模型检索方法一般可以分为两种类型:基于模型的三维目标检索和基于视图的三维目标检索方法。这种分类方式是根据它们所采用不同的数据类型和相应的方法来进行区别的。
图匹配[1]检索是基于数字图像处理、计算机视觉和机器学习等技术,借助于计算机处理技术,对数据库中物体的多视角视图进行分析比较的过程。图匹配在计算机视觉领域的许多问题中起着核心作用,如形状匹配[2]、对象分类[3]、特征跟踪[4]、对称分析[5]和动作识别[6]。图匹配通过计算节点到节点、以及边到边的结构相似性来实现模型匹配的目的,然而在许多实际应用中,基于视图的三维模型的特征点呈集合式出现。在这种情况下,传统的图匹配检索方法需要计算规模大且较为稀疏的亲和矩阵,这就大大提高了算法的运算成本。
图匹配检索方法目前面临的主要挑战为:当数据库中的三维模型视图特征较多时,亲和矩阵的计算成本较高,于是很多现有图匹配方法采用了相似度近似处理的方法,降低了三维模型检索的运算速度和准确度,限制了实际应用范围。
发明内容
本发明提供了一种基于分解式图匹配的三维模型检索方法,有效避免了图匹配过程中因计算成对亲和矩阵而带来的时间和空间上的较大运算成本,将传统图匹配方法与因式分解相结合,高效利用三维模型的全部视图特征,提高了图匹配检索的效率和精度,详见下文描述:
一种基于分解式图匹配的三维模型检索方法,所述三维模型检索方法包括以下步骤:
根据因式分解原理,对数据库中的任意两个三维模型进行成对图匹配,计算得到初始匹配矩阵和分解式矩阵;
对分解式矩阵进行矩阵变换,生成新的成对特征、以及分解式图匹配结构,根据奇异值分解方法对成对特征进行分解;
计算分解式图匹配的相似性得分,根据最优化原理生成最终的匹配矩阵,该匹配矩阵的模是数据库中两两三维模型之间的相似度;
根据不同模型间的相似度值进行排序,从而实现三维模型的检索。
所述方法还包括:
采集各物体的多视角彩色视图,提取掩膜后得到各物体的初始视图集,进行特征提取,将所有物体的总视图集定义为多视角模型库。
所述分解式矩阵包括:
节点亲和度矩阵、边缘亲和度矩阵、以及两个三维模型图结构的边缘连接判别矩阵。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于鹰霆(天津)科技有限公司,未经鹰霆(天津)科技有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201810380046.9/2.html,转载请声明来源钻瓜专利网。