[发明专利]一种无人车单目视觉定位中对匹配矩阵的图像匹配方法有效
申请号: | 201710333485.X | 申请日: | 2017-05-12 |
公开(公告)号: | CN107170004B | 公开(公告)日: | 2021-02-02 |
发明(设计)人: | 陈启军;张会;刘明;王香伟;杜孝国 | 申请(专利权)人: | 同济大学 |
主分类号: | G06T7/33 | 分类号: | G06T7/33;G06T7/73;G06T5/30;G06T7/194;G06T7/155 |
代理公司: | 上海科盛知识产权代理有限公司 31225 | 代理人: | 宣慧兰 |
地址: | 200092 *** | 国省代码: | 上海;31 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | 本发明涉及一种无人车单目视觉定位中对匹配矩阵的图像匹配方法,该方法包括以下步骤:1)通过深度卷积神经网络DCNN对所有输入的测试图像和定位地图图像进行全局特征描述,提取第三卷积层作为特征向量;2)采用主成分分析法对所有特征向量进行降维;3)根据测试图像和定位地图图像降维后的特征向量构建匹配矩阵,即匹配图像;4)对匹配图像进行OTSU二值化处理,得到处理后的二值化图像;5)对二值化图像进行形态学处理后,对图像进行直线拟合;6)在拟合的直线上对应的测试图像和定位地图图像即为匹配对应的图像。与现有技术相比,本发明具有算法设计方便、可视化效果好、运算速度更快、硬件要求降低等优点。 | ||
搜索关键词: | 一种 无人 目视 定位 匹配 矩阵 图像 方法 | ||
【主权项】:
一种无人车单目视觉定位中对匹配矩阵的图像匹配方法,其特征在于,该方法包括以下步骤:1)通过深度卷积神经网络DCNN对所有输入的测试图像和定位地图图像进行全局特征描述,提取第三卷积层作为特征向量;2)采用主成分分析法对所有特征向量进行降维;3)根据测试图像和定位地图图像降维后的特征向量构建匹配矩阵,即匹配图像;4)对匹配图像进行OTSU二值化处理,得到处理后的二值化图像;5)对二值化图像进行形态学处理后,对图像进行直线拟合;6)在拟合的直线上对应的测试图像和定位地图图像即为匹配对应的图像。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于同济大学,未经同济大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/patent/201710333485.X/,转载请声明来源钻瓜专利网。
- 上一篇:一种锂电池制造用搅拌装置
- 下一篇:一种纺织染料用高效混合装置