[发明专利]一种坐标标定方法及相关装置有效
申请号: | 202010281145.9 | 申请日: | 2020-04-10 |
公开(公告)号: | CN111429530B | 公开(公告)日: | 2023-06-02 |
发明(设计)人: | 王子彤;刘晓沐;王松;冉昭;张东;冯壮 | 申请(专利权)人: | 浙江大华技术股份有限公司 |
主分类号: | G06T7/80 | 分类号: | G06T7/80;G01S13/86 |
代理公司: | 深圳市威世博知识产权代理事务所(普通合伙) 44280 | 代理人: | 黎坚怡 |
地址: | 310051 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 坐标 标定 方法 相关 装置 | ||
本申请公开了一种坐标标定方法及相关装置。坐标标定方法包括:获取到通过定位装置采集的预设目标的多个相对于预设目标的第一坐标参数,以及预设目标在图像识别装置拍摄的多个图像中的第二坐标参数;基于第一坐标参数和第二坐标参数组成的数据组计算得到定位装置与图像拍摄装置对应的单应性矩阵;基于单应性矩阵将定位装置获取的坐标参数和图像识别装置获取的坐标参数相关联。本申请通过上述方案可以减小外界影响,从而提高坐标标定精度。
技术领域
本申请涉及多传感器联合探测系统技术领域,特别涉及一种坐标标定方法及相关装置。
背景技术
随着无人汽车、飞机等运输工具的发展,对应传感器的要求不断提高,现有的传感器通常可以采用多传感器联合,以提高传感器对环境的感知能力。
多传感器联合探测系统一般可以采用雷达和相机进行联合使用,将雷达感测到的坐标与相机拍摄的坐标相对应。在多传感器探测系统中,要有一个统一的坐标系,因此在使用雷达和相机进行传感器融合前必须对两种传感器进行联合空间标定,以确保两种传感器获得的数据有一个统一的参照标准,并能互相转换。
现有的标定方法通常需要按照预先设定好的距离、角度等信息放置相机及雷达设备,且在使用时不能存在任何的变动,否则就会因为实际摆放姿态与预设不符,导致出现错误。因此导致对多传感器联合探测系统进行坐标标定时,受到外界影响较大,从而可能出现标定精度不高的问题。
发明内容
本申请提供一种坐标标定方法及相关装置,以解决现有多传感器联合探测系统进行坐标标定时受到外界从而可能出现标定精度不高的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种坐标标定方法,所述坐标标定方法包括:
获取到通过定位装置采集的预设目标的多个相对于所述预设目标的第一坐标参数,以及所述预设目标在图像识别装置拍摄的多个图像中的第二坐标参数;
基于所述第一坐标参数和所述第二坐标参数组成的数据组计算得到所述定位装置与所述图像拍摄装置对应的单应性矩阵;
基于所述单应性矩阵将所述定位装置获取的所述坐标参数和所述图像识别装置获取的坐标参数相关联。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种坐标定位系统,所述坐标定位系统包括处理器、与所述处理器相互耦接的定位装置、图像识别装置以及存储器;所述存储器用于存储所述处理器执行的计算机程序以及在执行所述计算机程序时所产生的中间数据;所述处理器执行所述计算机程序时,用于使得所述定位装置和所述图像识别装置实现如前文所述的坐标标定方法。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种计算机可读存储介质,所述计算机可读存储介质存储有程序数据,所述程序数据能够被执行以实现如前文所述的坐标标定方法。
区别于现有技术,本申请提供了一种坐标标定方法及相关装置。坐标标定方法包括:获取到通过定位装置采集的预设目标的多个相对于预设目标的第一坐标参数,以及预设目标在图像识别装置拍摄的多个图像中的第二坐标参数;基于第一坐标参数和第二坐标参数组成的数据组计算得到定位装置与图像拍摄装置对应的单应性矩阵;基于单应性矩阵将定位装置获取的坐标参数和图像识别装置获取的坐标参数相关联。本申请通过上述方案可以通过单应性矩阵和旋转矫正矩阵将定位装置获取的坐标参数和图像识别装置获取的坐标参数相关联,从而可以使得定位装置获取的坐标参数和图像识别装置相互转化,可以减小外界影响,从而提高标定精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,其中:
图1是本申请提供的一种坐标标定方法一实施例的流程示意图;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大华技术股份有限公司,未经浙江大华技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202010281145.9/2.html,转载请声明来源钻瓜专利网。