[发明专利]图像目标三维信息标注方法在审
申请号: | 201910485927.1 | 申请日: | 2019-06-05 |
公开(公告)号: | CN110390258A | 公开(公告)日: | 2019-10-29 |
发明(设计)人: | 李煊鹏;李宇杰;薛启凡;赵靖文;罗佳奕 | 申请(专利权)人: | 东南大学 |
主分类号: | G06K9/00 | 分类号: | G06K9/00;G06K9/32;G06T7/60;G06T7/70 |
代理公司: | 南京苏高专利商标事务所(普通合伙) 32204 | 代理人: | 赵淑芳 |
地址: | 211189 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 三维检测 三维信息 标注 三维 模块读取 图像目标 相机标定 相机 图像 图像深度信息 相机坐标系 单一图像 顶点标记 二维检测 目标航向 目标检测 内参矩阵 所在区域 投影坐标 物理信息 像素坐标 检测框 二维 加载 解算 框边 算法 航向 绘制 跟踪 转换 | ||
本发明公开了一种图像目标三维信息标注方法,包括以下步骤:三维信息标注模块读取图像,根据图像中目标所在区域绘制生成二维矩形检测框;根据三维检测框部分顶点位于二维检测框边的关系,生成原始的三维检测框;选择三维检测框顶点标记对原始三维检测框进行调整,生成可描述目标三维尺寸的准确三维检测框;三维物理信息解算模块读取相机标定数据或相机内参矩阵和图像深度信息数据,得到目标在相机坐标系下的投影坐标,进而得出目标的物理尺寸,包括长L、宽W以及航向α。本发明通过对单一图像数据中的目标进行三维标记获得尺寸、坐标与目标航向等具体信息,可加载相应的相机标定数据,实现像素坐标与相机坐标的转换,得到目标真实的三维信息,有利于目标检测、跟踪等算法的实现。
技术领域
本分明涉及图像信息标注,具体涉及一种图像目标三维信息标注方法。
背景技术
随着人工智能和无人驾驶技术的日趋发展,对计算机视觉算法和深度学习的研究成为了学术界的热点课题,而视觉算法,包括目标检测与跟踪等算法的实现与发展必须有庞大的、准确的道路、街景样例数据的支持。
图像标注工具可以快速、高效地制作算法实现需要的样例数据集。目前已经存在多种二维目标标记工具,例如labelImg、yolo_mark、Vatic等,这类工具可用于对图像中目标进行二维信息标注,包含目标二维检测框的像素坐标以及目标类别,可基本满足大多数基于深度学习的二维目标检测等算法实现的数据集制作要求。随着深度学习算法研究的不断深入,以及智能驾驶中对车辆等目标三维信息的需求,对三维目标检测与跟踪等算法的研究也逐渐成为热点课题,中国专利CN108829435提供了一种图像标注方法及通用图像标记工具,实现了二维的打点标绘、标线标绘、标框标绘和区域标绘,但未能解决图像目标的三维信息标注。
发明内容
发明目的:本发明的目的是提供一种图像目标三维信息标注方法,解决现有标注方法不能实现图像目标的三维信息标注的问题。
技术方案:本发明所述的图像目标三维信息标注方法,包括以下步骤:
(1)三维信息标注模块读取图像,根据图像中目标所在区域绘制生成二维矩形检测框;
(2)根据三维检测框部分顶点位于二维检测框边的关系,生成原始的三维检测框;
(3)根据图像中目标尺寸与航向,选择三维检测框顶点标记对原始三维检测框进行调整,使其准确描述图像中的目标尺寸;
(4)三维物理信息解算模块读取相机标定数据或相机内参矩阵和图像深度信息数据,得到目标在相机坐标系下的投影坐标,进而得出目标的物理尺寸,包括长L、宽W以及航向α。
其中,所述步骤(1)具体为:根据图像轮廓选择二维检测框的起始点,获取该起始点的像素坐标(x0,y0),该起始点为目标二维检测框的左上顶点,生成二维检测框区域,并获取二维检测框的右下顶点的像素坐标(x1,y1)。
所述步骤(2)具体为:根据目标预设航向,选择目标二维检测框的任一顶点作为三维检测框的起始点(x’0,y’0),二维检测框中的对顶点作为终止点(x’7,y’7),根据预设的二维检测框长宽与三维检测框长宽比,确定三维检测框其他顶点坐标,三维检测框坐标为[(x’0,y’0),(x’1,y’1)......(x’7,y’7)]。
所述步骤(4)中,相机标定数据包括相机的安装角、偏移距离和内参矩阵。
所述步骤(4)中读取相机标定数据,对三维检测框的底部四顶点像素坐标进行反向投影变换,获得相机坐标系下的投影坐标(x1,y1)......(x4,y4),解算得出目标的物理尺寸长L、宽W以及航向α:
W=x1-x2
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910485927.1/2.html,转载请声明来源钻瓜专利网。