[发明专利]低维度的集束调整计算方法与系统有效

专利信息
申请号: 201710370360.4 申请日: 2017-05-23
公开(公告)号: CN107330934B 公开(公告)日: 2021-12-07
发明(设计)人: 武元新;蔡奇;郁文贤 申请(专利权)人: 上海交通大学
主分类号: G06T7/579 分类号: G06T7/579;G06T7/285;G06T7/33
代理公司: 上海汉声知识产权代理有限公司 31236 代理人: 郭国中
地址: 200240 *** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明提供了一种低维度的集束调整计算方法与系统,包括:确定运动参数的初值;对运动参数的目标函数进行优化计算,得到优化后的运动参数;根据优化后的运动参数,计算三维场景点坐标。本发明将多幅视图的景深表示为两两视图的相对运动参数的函数,实现了从多幅视图直接恢复运动参数,再从运动参数中解析获得三维场景点坐标,从而将三维场景点坐标从集束调整的参数优化过程中剔除,大幅降低了参数空间的维度。本发明是一种初始化简便、鲁邦性好、计算速度更快、计算精度更高的低维度集束调整方法。本发明可用作无人车/无人机视觉导航、视觉三维重建、增强现实等应用的核心计算引擎。
搜索关键词: 维度 集束 调整 计算方法 系统
【主权项】:
一种低维度的集束调整计算方法,其特征在于,包括如下步骤:步骤1:确定运动参数的初值;步骤2:对运动参数的目标函数进行最小化计算,得到优化后的运动参数;步骤3:根据优化后的运动参数,计算三维场景点坐标。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于上海交通大学,未经上海交通大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710370360.4/,转载请声明来源钻瓜专利网。

同类专利
  • 使用多方向相机地图构建空间-201680063459.3
  • 罗伯特·卢凯尔斯基;斯特凡·莱乌特尼格尔;安德鲁·戴维森 - 帝国理工学院创新有限公司
  • 2016-08-23 - 2023-10-24 - G06T7/579
  • 在本文描述的某些示例涉及使用多方向相机来地图构建空间。可以对包括单目多方向相机装置和至少一个移动致动器的机器人设备执行该地图构建。该地图构建可以生成占据图,以确定该空间的可导航部分。在示例中,指示使用至少一个移动致动器,机器人设备围绕移动平面内的点的移动。使用单目多方向相机装置,然后,在所指示的移动期间,在多个不同的角度位置处获得(610)图像序列。从图像序列中确定(620)姿态数据。使用在图像序列内检测到的一组特征来确定姿态数据。然后,通过评估姿态数据和图像序列的体积函数来估计(630)深度值。处理(640)深度值,以填充该空间的占据图。
  • 一种基于图像的视觉伺服的雅可比矩阵深度估计方法-202011611379.1
  • 董久祥;公冶庆旋 - 东北大学
  • 2020-12-30 - 2023-10-20 - G06T7/579
  • 本发明涉及一种基于图像的视觉伺服的雅可比矩阵深度的信息估计方法,包括如下步骤:S1、确定选择的状态的数量;S2、根据选择的状态的数量和图像的视觉伺服IBVS,建立基于卡尔曼滤波器的观测器模型;S3、根据建立的基于卡尔曼滤波器的观测器模型获得基于图像的视觉伺服IBVS的雅可比矩阵未知深度的估计信息;所述状态的数量包括:单一状态和多状态;提取雅可比矩阵的部分深度信息作为基于卡尔曼滤波器的观测器模型的状态向量。本发明提供的信息估计方法从图像雅可比矩阵中提取深度信息或深度信息以及二维图像点坐标作为卡尔曼滤波器的状态向量,大大提高了准确率;同时,通过六自由度机械臂的仿真和实验结果验证了该方法的有效性。
  • 移动场景下基于视频生成毫米波雷达数据的方法及装置-202310725723.7
  • 赵东;马华东;张紫涵;邓凯凯;王书岳;郑文昕 - 北京邮电大学
  • 2023-06-19 - 2023-09-05 - G06T7/579
  • 本发明公开了一种移动场景下基于视频生成毫米波雷达数据的方法及装置,属于毫米波雷达移动感知领域,包括人体网格提取与校准和反射与噪声信号估计两个组件。人体网格提取与校准组件,用于准确估计相机和人的真实位置,包括模糊和抖动过滤器、人体网格提取模块、相机姿态估计模块和人体位置校准模块;反射与噪声信号估计组件,用于模拟雷达信号的多径反射与衰减以及背景噪声,包括深度预测模型、反射模型、时空噪声估计模块和U‑Net网络模块。本发明利用丰富的动态视频数据生成大量逼真的、可转换的动态毫米波雷达数据,包括多普勒数据和点云数据,有效解决了移动场景中毫米波雷达数据不足的问题,可应用于动作识别、目标检测等应用中。
  • 用于处理图像数据的方法和设备和用于车辆的驾驶员辅助系统-201710324963.0
  • S·西蒙 - 罗伯特·博世有限公司
  • 2017-05-10 - 2023-09-01 - G06T7/579
  • 本发明涉及一种用于处理图像数据(104)的方法。所述方法包括如下步骤:作为第一图像数据与先前图像数据之间的对应求取的结果确定对应数据,所述第一图像数据代表基于由摄像机(106)在第一时刻检测的图像数据(104)的数据,所述先前图像数据代表基于由所述摄像机(106)在先前时刻检测的图像数据(104)的数据。在所述确定步骤中,基于在使用所述对应数据的情况下执行的自身运动估计来确定深度数据。在所述求取步骤中,在使用所述深度数据和所传输的融合数据的情况下求取融合数据,其中,所述融合数据包括基于所述图像数据的深度信息。
  • 一种处理方法、装置和电子设备-202310632292.X
  • 王锐 - 联想(北京)有限公司
  • 2023-05-31 - 2023-08-22 - G06T7/579
  • 本申请公开一种处理方法、装置和电子设备,其中处理方法包括:获得空间环境内的一帧原始图像;至少基于所述原始图像中的成像对象的深度信息将所述成像对象关联至所述原始图像的多个图层,所述多个图层之间至少具有深度方向上的差异;利用所述深度信息在目标图层对目标对象执行对应的图像处理,得到一帧目标图像。
  • 一种耦合多目标跟踪的视觉SLAM方法-202310262036.6
  • 陈光柱;苟荣松;蒲鑫 - 成都理工大学
  • 2023-03-17 - 2023-08-22 - G06T7/579
  • 本发明提出了一种耦合多目标跟踪的视觉SLAM方法。该方法分为耦合视觉里程及前端以及图优化后端。首先,利用扩展卡尔曼滤波(EKF)在目标检测信息的基础之上对目标进行跟踪;然后,根据EKF获取的目标运动信息对当前特征进行分类,静态特征被用于获取相机的位姿信息,动态特征被用于获取目标的6‑DOF位姿信息;最后,建立了一个多元因子图优化模型,对相机位姿、目标位姿、静态3D点、运动上的动态3D点进行了联合优化。本发明针对SLAM系统在动态环境下的定位精度低、获取目标信息不足的问题,研究场景中的目标信息对机器人在定位、建图过程中的作用;本发明能够实现移动设备在动态环境中获取准确的相机位姿信息以及目标位姿信息,并对场景中的目标进行跟踪。
  • 用于跟踪移动设备的方法和系统-202310512328.0
  • P·迈耶;S·利伯克内希特 - 苹果公司
  • 2013-12-19 - 2023-07-25 - G06T7/579
  • 本公开涉及用于跟踪移动设备的方法和系统。本发明公开了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括以下步骤:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。本发明还涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法。
  • 一种利用事件相机检测TOF相机运动伪差的方法-202211719136.9
  • 郑灵杰;杨洋;马佩服;王继凯 - 杭州蓝芯科技有限公司
  • 2022-12-30 - 2023-07-04 - G06T7/579
  • 本发明涉及一种利用事件相机检测TOF相机运动伪差的方法,包括:获取事件相机与TOF相机间像素坐标的映射关系;从同一时间分别开始获取事件相机输出的事件以及TOF相机进行拍摄直至TOF相机得到TOF相机深度图像;基于映射关系,将第一时间段事件相机输出的每一事件,映射到TOF相机深度图像的坐标系,得到每一事件所映射到TOF相机深度图像的坐标系下的坐标;基于每一事件所映射到TOF相机深度图像的坐标系下的坐标,分别确定每一事件所对应的在指定像素坐标点上有运动物体的概率;基于TOF相机深度图像、每一事件所对应的在指定像素坐标点上有运动物体的概率、预先指定的阈值,获取去除运动伪差的TOF相机深度图像。
  • 基于单目视觉的目标深度估计方法、装置及车辆-202310193407.X
  • 苏国威;张超 - 北京四维图新科技股份有限公司
  • 2023-02-28 - 2023-06-23 - G06T7/579
  • 本公开提供的一种基于单目视觉的目标深度估计方法、装置及车辆,涉及自动驾驶技术,包括:获取摄像机采集获取的目标物的原始视频帧数据;从原始视频帧数据中抽取多个目标图像,由多个目标图像构成目标视频帧数据;识别目标图像中的目标物以获取目标物的实际像素坐标;按照时间顺序依次确定目标视频帧数据中除了时间最晚的目标图像之外的其他目标图像中的目标物的预测像素坐标;根据预测像素坐标和实际像素坐标,以更新获取目标深度值。可利用目标图像中目标物的实际像素坐标,确定与之相邻的下一个目标图像中目标物的预测像素坐标;然后根据实际像素坐标与预测像素坐标之间的距离,以更新获取目标深度值,从而可以满足实时性要求。
  • 一种基于极线约束的单目线特征地图构建方法-202010247787.7
  • 罗永恒;魏武;周方华;李奎霖;黄林青 - 华南理工大学
  • 2020-03-31 - 2023-06-16 - G06T7/579
  • 本发明提供了一种基于极线约束的单目线特征地图构建方法,包括以下步骤:1.对相邻两帧图像Ki,Kj,使用光流跟踪法跟踪特征点,寻找参考角点和跟踪角点的本质矩阵;2.提取每一帧图像的LSD线特征,计算LBD描述子;3.计算参考帧每一条直线li的中点极线,并计算与其对应的匹配直线的夹角θ大小;4.从li的点集Pi,k选取直线上的点,计算点对应的极线与匹配直线的交点,交点集合为Ii,k;5.确定点集Pj,k;6.对点集进行归一化和三角化,确定空间点点集Pk,拟合直线Lk.S7.直线重投影到第i帧和第j帧,构建重投影误差,更新相机位姿和空间直线;8.确定端点空间直线起点和终点;9.更新直线。
  • 一种基于深度网络与运动信息的单目室内深度估计算法-202211588566.1
  • 金兢;周永乐;廖志伟;赵玲娜 - 合肥工业大学
  • 2022-12-09 - 2023-05-30 - G06T7/579
  • 本发明公开了一种基于深度网络与运动信息的单目室内深度估计算法。首先,通过为较好的解决动态场景下特征提取不准确的问题,本发明通过设计编解码深度估计网络架构,根据前后帧的约束关系,提出了一种联合深度网络和运动信息的单目室内深度估计算法。其核心思想是利用帧间几何约束关系充分挖掘相邻帧间的上下文信息,并通过光流估计法跟踪相邻帧间的运动区域信息,利用运动矢量(Motion Vector,MV)推断深度信息,再结合分层特征提取网络,通过联合传统几何约束和深度神经网络的特征提取方法,最终实现室内静态、动态场景深度估计,进一步提升了单目室内深度估计算法的适应性和鲁棒性。
  • 用于跟踪移动设备的方法和系统-201910437404.X
  • P·迈耶;S·利伯克内希特 - 苹果公司
  • 2013-12-19 - 2023-05-09 - G06T7/579
  • 本公开涉及用于跟踪移动设备的方法和系统。本发明公开了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括以下步骤:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。本发明还涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法。
  • 激光雷达的伪点云数据生成方法-202010163524.8
  • 薛松;王曙;李德祥;李文正;李乾;林春雨 - 中车青岛四方车辆研究所有限公司
  • 2020-03-10 - 2023-04-28 - G06T7/579
  • 本发明涉及激光雷达的伪点云数据生成方法,包括:处理器选取第一彩色图像、第二彩色图像和第三彩色图像;基于时间数据,获取第二彩色图像所对应时间数据的前后两帧稀疏深度图像,分别为第一稀疏深度图像和第二稀疏深度图像;根据选定的第一像素点的偏移位移,确定光流;根据光流、第一稀疏深度图像和第二稀疏深度图像,得到中间帧稀疏深度图像;将第一稀疏深度图像、第二稀疏深度图像和中间帧稀疏深度图像作为卷积神经网络的输入,推演输出中间帧密集深度图像;将第二彩色图像和中间帧密集深度图像作为U‑net网络的输入,推演输出中间帧精细深度图像;根据中间帧精细深度图像中的像素点进行坐标转换处理,得到中间帧精细深度图像的伪点云数据。
  • 一种基于图像的深度计算方法-202010089867.4
  • 纪刚;杨丰拓;安帅;朱慧 - 青岛联合创智科技有限公司
  • 2020-02-13 - 2023-04-14 - G06T7/579
  • 本发明公开了一种基于图像的深度计算方法,包括如下步骤:使用视觉里程计获取图像位姿对;对当前帧进行四叉树划分;计算图像的匹配损失体;提取图像四叉树节点像素对应的损失构建次级匹配损失体,对次级匹配损失体执行动态置信传播算法进行优化;将优化后的匹配损失体放回原始匹配损失体中,在并行计算平台上对每个像素使用赢家通吃策略提取最小损失及其对应的采样深度值;去除噪声深度并平滑深度图。本发明所公开的方法在保证精度和快速性的前提下提高了深度完整度,降低了立体匹配计算的计算量,提高了深度计算的速度。
  • 基于人在环优化的点云语义SLAM的方法、系统及装置-202211160212.7
  • 欧阳真超;胡庆雷;李东禹;郭鹏宇;王薪宇;张昌杰 - 北京航空航天大学杭州创新研究院
  • 2022-09-22 - 2022-12-20 - G06T7/579
  • 本发明公开了一种基于人在环优化的机器人点云语义SLAM方法、系统及装置,其中,该方法包括:S1、移动机器人上的激光雷达对目标地点进行数据采集,得到每帧点云的相对位姿信息,完成建图;S2、建立点云连续轨迹,人工观测建图误差,构建稠密因子图,然后基于因子图进行全局优化,调整总体点云错误;S3、基于预定义的点云语义类别并采用标注工具进行叠加地图的点云语义标注,累计点云语义标记结果得到点云语义分割数据集;S4、基于点云语义分割数据集进行分割模型的训练和评估得到训练和评估后的分割模型;S5、基于训练和评估后的分割模型,进行点云语义定位与优化。采用本发明可以实现点云语义定位与优化。
  • 深度信息获取方法、装置、电子设备及存储介质-202210989737.5
  • 王啸峰;叶云;黄冠 - 北京鉴智科技有限公司
  • 2022-08-17 - 2022-12-09 - G06T7/579
  • 本申请提供了一种深度信息获取方法、装置、电子设备及存储介质。所述方法包括:将目标车辆的第一帧图像和第二帧图像输入至深度信息融合模型;调用单目深度信息获取层对第一帧图像的图像特征进行处理,得到第一帧图像中每个像素的单目深度信息;调用多目深度信息获取层根据单目深度信息、预测得到的目标车辆的车辆速度和目标相机的相机外参,对第一帧图像和第二帧图像的图像特征进行处理,得到第一帧图像中每个像素的多目深度信息,及多目深度信息的确信度;调用深度信息融合层根据确信度,对第一帧图像中每个像素的单目深度信息和多目深度信息进行融合,得到第一帧图像的图像深度信息。本申请可以提高预测图像深度的精确度。
  • 一种水下相机-IMU-深度计的空间联合标定方法-202210884061.3
  • 丁硕硕;李晔;马腾;徐硕;夏嘉豪;刘善昌 - 哈尔滨工程大学
  • 2022-07-26 - 2022-11-11 - G06T7/579
  • 本发明涉及一种水下相机‑IMU‑深度计的空间联合标定方法,通过传统视觉图像特征方法对相机初始化,获得相机位姿和路标点信息;利用规划运动激励获得深度计和IMU测量数据,同时通过视觉位姿变化的信息约束,对深度数据离群点剔除;采用多组有效的相邻帧间深度信息、视觉信息和IMU预积分信息,建立手眼标定方程组;对方程组进行优化求解,获得外参变换初值;将初值加入后端非线性优化,并通过空间变换关系求解外参。本发明考虑到深度计测量数据只发生在垂直方向,通过运动约束,建立伪手眼标定方程组,对外参进行非线性优化,克服了水下相机‑IMU‑深度计外参不易获得,手工机械测量误差大的问题,为水下多传感器融合SLAM提供了准确的相机‑IMU‑深度计外参变换信息。
  • 基于关键帧优化的视觉SLAM方法及装置-202210729683.9
  • 付诚;陈志涛;夏华佳 - 武汉依迅北斗时空技术股份有限公司
  • 2022-06-24 - 2022-09-30 - G06T7/579
  • 本发明提供一种基于关键帧优化的视觉SLAM方法及装置,该方法包括:接收来自图像采集装置的当前图像帧;基于当前图像帧和当前图像帧的上一图像帧,获取第一位姿信息;在当前图像帧是关键帧时,在当前关键帧和当前关键帧的上一关键帧之间进行匹配,获取地图点;基于地图点为约束条件,利用筛选出的目标历史关键帧和当前关键帧建立共视有向连接图;基于共视有向连接图和第一位姿信息,进行局部集束调整,获取位姿估计信息;基于第二滑窗和位姿估计信息,进行局部集束调整,获取第二位姿信息,并获取更新后的地图点,以使得基于更新后的地图点,建立场景地图。本发明提供的基于关键帧优化的视觉SLAM方法及装置,能够兼顾低算力和高精度。
  • 用于自主机器应用的表面轮廓估计和隆起检测-202080095468.7
  • M·帕克;吴越;M·格拉布纳;杨证杰 - 辉达公司
  • 2020-11-24 - 2022-09-09 - G06T7/579
  • 在各种示例中,基于三维(3D)点云可以执行表面轮廓估计和隆起检测。鉴于包括可行驶自由空间的环境的一部分并且在阈值高度内,3D点云可以被过滤,以排除除行驶表面和其上的突起以外的其他对象或障碍物。3D点云可以被分析‑‑例如,使用沿纵向或其他航向的边界形状的滑动窗口‑‑以确定对应于沿行驶表面的高度的一维(1D)信号轮廓。轮廓本身可由车辆‑‑例如,自主或半自主车辆—使用以帮助导航环境,和/或轮廓可用于检测沿行驶表面的隆起、圆形隆起和/或其他突起,以及其位置、方向和几何形状。
  • 目标检测方法、终端设备和介质-202080084230.4
  • 徐毅 - OPPO广东移动通信有限公司
  • 2020-09-08 - 2022-07-15 - G06T7/579
  • 本公开提供了一种目标检测方法。该方法包括:获取相机拍摄的第一场景图像(101);获取所述相机的当前位置和姿态信息(102);基于所述相机的所述当前位置和姿态信息来调整所述第一场景图像以获得第二场景图像(103);以及对所述第二场景图像执行目标检测(104)。此外,本公开还提供了一种终端设备和介质。
  • 一种基于激光与视觉异步融合的SLAM算法-202210313473.1
  • 邢科新;张兴盛;董为;李伟腾;慈雯祺;蒲茜 - 浙江工业大学
  • 2022-03-28 - 2022-07-12 - G06T7/579
  • 本发明公开了一种基于激光与视觉异步融合的SLAM算法,首先将传感器的数据按较快的传感器采样频率划分为m个采样区间,每个采样区间内会存在两种情况:1)只拥有相机的位姿估计;2)同时拥有来自激光传感器和视觉传感器的位姿估计。结合Kalman滤波器及多传感器异步融合的方法,得到了改进后的基于激光与视觉异步融合位姿估计算法。为了有效利用每个传感器不同的特性,根据机器人的运行状态,引入基于角度的加权系数,提高测量的置信度。该方法可以更好地利用视觉传感器中的冗余数据,提高算法的跟踪精度。同时,将视觉传感器姿态估计作为激光传感器姿态估计的先验,减少迭代次数,提高算法的效率。
  • 一种基于EVO的SLAM地图精度确认方法和系统-202111537125.4
  • 程德心;肖晗 - 武汉光庭信息技术股份有限公司
  • 2021-12-15 - 2022-05-13 - G06T7/579
  • 本发明实施例提供一种基于EVO的SLAM地图精度确认方法和系统,通过轨迹评估工具EVO来评价SLAM建图的精度与效果,EVO支持多种数据集的轨迹格式(TUM、KITTI、EuRoC MAV、ROS的bag),同时支持这些数据格式之间进行相互转换。EVO的核心功能是能够绘制相机的轨迹,并评估估计轨迹与真值之间的误差。在单个传感器性能或者多传感器融合算法效果不佳的情况下,能通过绝对误差(APE)和相对误差(RPE)准确评价SLAM建图的效果,从而改进传感器或者多传感器融合算法,进而保证地图数据的精确性,极大地提高了驾驶员舒适性与车辆的安全性。
  • 基于曼哈顿假设下室内环境的相机旋转估计方法-202210090415.7
  • 王亮;赵德运 - 北京工业大学
  • 2022-01-25 - 2022-05-10 - G06T7/579
  • 一种基于曼哈顿结构假设下室内场景中相机旋转运动估计的方法,属于计算机视觉领域,本发明(1)采用新的方法来进行平面拟合,从室内环境深度图片的三维点云数据中随机选取三个点生成平面模型,通过对模型进行顺序概率比测试和LO‑RANSAC优化,得到精确的主导平面;(2)从RGB图片中检测直线,将直线投影到高斯球面上,得到投影后的大圆及大圆的法向量,同时将主导平面也以法向量的形式投影到高斯球面上,并与直线投影的法向量做叉乘,以此来确定曼哈顿坐标系的结构;(3)提出了一个代价函数,对曼哈顿坐标系的结构进行优化,得到更稳定准确的结果;(4)通过曼哈顿坐标系与相机坐标系之间的旋转矩阵间接计算出相机的旋转运动。
  • 用于航空载具的物体检测和躲避-201880061344.X
  • A.克劳斯 - 亚马逊科技公司
  • 2018-09-19 - 2022-05-10 - G06T7/579
  • 一种配备有一个或多个成像装置的航空载具可以使用由所述成像装置捕获的图像对来检测尺寸小的障碍或具有与着陆区域的颜色或纹理一致的颜色或纹理特征的障碍。可以确定对应于着陆区域出现在每个图像对内的点的像素之间的视差,并使用所述视差来生成所述着陆区域的重建和差值图像。如果所述重建或者所述差值图像指示存在一个或多个障碍,则可以中止所述着陆区域处的着陆操作或者可以相应地识别所述航空载具的备选着陆区域。
  • 基于视觉的拓扑地图生成方法-202010041500.5
  • 任鹏举;曹琳阁;丁焱;李创;熊帆;李凌阁;郑南宁 - 西安交通大学
  • 2020-01-15 - 2022-04-01 - G06T7/579
  • 本发明公开了基于视觉的拓扑地图生成方法,包括:获取图像信息,基于图像信息以预定频率抽取图像帧;基于图像帧预处理得到关键帧,判断当前是否产生回环,若产生回环,矫正当前已有拓扑地图,如果关键帧是本次建图运行过程中的第一帧图像,则在其所在位置设置拓扑节点;其他拓扑点的判别方式包括两种:一是比较图像信息与已有拓扑地图中最新加入的拓扑节点的图像,判断两幅图像的描述符相似度是否低于第一阈值,如果低于第一阈值,则将关键帧的图像所在位置作为新的拓扑节点加入拓扑地图,存储当前帧。二是判断连续若干帧的角度信息相对于上一拓扑节点是否大于第二阈值,大于则将关键帧的图像所在位置作为新的拓扑节点加入拓扑地图,存储当前帧。
  • 低维度的集束调整计算方法与系统-201710370360.4
  • 武元新;蔡奇;郁文贤 - 上海交通大学
  • 2017-05-23 - 2021-12-07 - G06T7/579
  • 本发明提供了一种低维度的集束调整计算方法与系统,包括:确定运动参数的初值;对运动参数的目标函数进行优化计算,得到优化后的运动参数;根据优化后的运动参数,计算三维场景点坐标。本发明将多幅视图的景深表示为两两视图的相对运动参数的函数,实现了从多幅视图直接恢复运动参数,再从运动参数中解析获得三维场景点坐标,从而将三维场景点坐标从集束调整的参数优化过程中剔除,大幅降低了参数空间的维度。本发明是一种初始化简便、鲁邦性好、计算速度更快、计算精度更高的低维度集束调整方法。本发明可用作无人车/无人机视觉导航、视觉三维重建、增强现实等应用的核心计算引擎。
  • 投影图像生成方法及其装置、图像像素与深度值之间的映射方法-201680040327.9
  • 都洛珠 - 高丽大学校产学协力团
  • 2016-06-29 - 2021-10-08 - G06T7/579
  • 本发明公开对于三维空间的投影图像生成方法。本发明一实施例的投影图像生成方法包括:以基准坐标系为基准来推定多个图像取得位姿及多个深度取得位姿的步骤,上述多个图像取得位姿及多个深度取得位姿包含相对于实际三维空间所取得的多个取得图像及多个取得深度值的各个取得位置及取得角度;以基准坐标系为基准来取得用户位姿的步骤,上述用户位姿包含与上述实际三维空间相对应的虚拟的三维空间中的用户的位置及角度;以及基于与上述用户位姿相对应的对应图像取得位姿及至少一个对应深度取得位姿,生成向上述多个取得图像中的至少一个投影上述多个取得深度值而成的投影图像的步骤。
  • 运动捕捉方法、装置、电子设备以及拉花系统-202110691108.X
  • 谭志强 - 广东智源机器人科技有限公司
  • 2021-06-22 - 2021-08-31 - G06T7/579
  • 本申请实施例提供一种运动捕捉方法、装置、电子设备以及拉花系统,所述方法包括:获取接收到的多帧图像,所述多帧图像中包含目标物体;基于所述多帧图像,获得所述目标物体的第一运动信息,所述第一运动信息中包含每一帧所述图像中目标物体的第一位姿信息,所述第一位姿信息为所述目标物体在第一坐标系中的位姿信息,所述第一坐标系以相机为基准;获取坐标转换关系,基于所述坐标转换关系,对所述第一位姿信息进行坐标转换,得到多个第二位姿信息,所述第二位姿信息为机械臂末端在第二坐标系中的位姿信息,所述第二坐标系以机械臂基座为基准;基于多个所述第二位姿信息,获得第二运动信息,以使得所述机械臂末端按照所述第二运动信息进行运动。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top