[发明专利]一种目标匹配的物体识别方法、设备及存储设备在审
申请号: | 201711215417.X | 申请日: | 2017-11-28 |
公开(公告)号: | CN108009576A | 公开(公告)日: | 2018-05-08 |
发明(设计)人: | 丁华锋;林可;王静婷;张雄伟 | 申请(专利权)人: | 中国地质大学(武汉) |
主分类号: | G06K9/62 | 分类号: | G06K9/62 |
代理公司: | 武汉知产时代知识产权代理有限公司 42238 | 代理人: | 龚春来 |
地址: | 430074 湖*** | 国省代码: | 湖北;42 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 目标 匹配 物体 识别 方法 设备 存储 | ||
本发明提供了一种目标匹配的物体识别方法、设备及存储设备,所述方法包括步骤:建立目标物体的三维模型;生成所述三维模型的多视角图片库;计算图片库中图片轮廓的傅里叶描述子并生成匹配库;获取实时物体的图像并对图像进行预处理得到比对图像;将比对图像和匹配库中的图像进行匹配并最终生成匹配结果。一种目标匹配的物体识别设备及存储设备,用来实现所述方法。本发明在有效识别期望物体图像的同时具备良好的鲁棒性。
技术领域
本发明涉及模式识别领域,具体涉及一种目标匹配的物体识别方法、设备及存储设备。
背景技术
在目标自动识别技术中,物体形状的识别是模式识别领域的研究重点,它广泛的应用于机器视觉领域中。要识别物体的形状,必须先找到一种描述物体形状的方法。对于不同描述形状的方式,目前已有很多形状描述的方法被提出,傅里叶描述子具有简单、高效的特点,已经成为识别物体形状的重要方法之一。但是,傅里叶描述子在二维平面内对图像描述的鲁棒性较差,在三维空间中也无法解决图像从不同角度观察造成的形变问题。所以,如何找到一种能保证二维和三维图像识别过程中都具备鲁棒性的物体图像识别方法就成为一种亟待解决的问题。
发明内容
本发明提供了一种目标匹配的物体识别方法、设备及存储设备,通过像素点的复数化表示,使用归一化傅里叶描述子对图像进行简化描述,并结合设定的目标匹配机制,可以高效实现物体的识别。同时,归一化处理和目标匹配机制还增强了图像在处理中的鲁棒性,使图像在旋转、平移和尺度变换时仍能保持良好的识别效果,从而有效解决上述问题。
本发明提供的技术方案是:一种目标匹配的物体识别方法,所述方法包括步骤:建立目标物体的三维模型;生成所述三维模型的多视角图片库;计算图片库中图片轮廓的傅里叶描述子并生成匹配库;获取实时物体的图像并对图像进行预处理得到比对图像;将比对图像和匹配库中的图像进行匹配并最终生成匹配结果。存储设备,所述存储设备存储指令及数据用于实现所述一种目标匹配的物体识别方法。一种目标匹配的物体识别设备,所述设备包括处理器及所述存储设备;所述处理器加载并执行所述存储设备中的指令及数据用于实现所述的一种目标匹配的物体识别方法。
本发明的有益效果是:本发明提供了一种目标匹配的物体识别方法、设备及存储设备,通过像素点的复数化表示,使用归一化傅里叶描述子对图像进行简化描述,并结合设定的目标匹配机制,可以高效实现物体的识别。同时,归一化处理和目标匹配机制还增强了图像在处理中的鲁棒性,使图像在旋转、平移和尺度变换时仍能保持良好的识别效果。
附图说明
图1是本发明实施例中目标匹配的物体识别方法的整体流程图;
图2是本发明实施例中获取实时物体的图像并对图像进行预处理得到比对图像具体步骤流程图;
图3是本发明实施例中将比对图像和匹配库中的图像进行匹配并最终生成匹配结果具体步骤流程图;
图4是本发明实施例中图像物体轮廓像素点的复数序列表示示意图;
图5是本发明实施例中图片库中目标三维模型多角度图片成型示意图;
图6是本发明实施例中目标匹配的物体识别的效果图;
图7是本发明实施例的硬件设备工作示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地描述,下文中提到的具体技术细节,如:方法,设备等,仅为使读者更好的理解技术方案,并不代表本发明仅局限于以下技术细节。
本发明的实施例提供了一种目标匹配的物体识别方法、设备及存储设备。请参阅图1,图1是本发明实施例中目标匹配的物体识别方法的整体流程图,所述方法由硬件设备实现,具体步骤包括:
S101:建立目标物体的三维模型。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国地质大学(武汉),未经中国地质大学(武汉)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201711215417.X/2.html,转载请声明来源钻瓜专利网。