专利名称
主分类
A 农业
B 作业;运输
C 化学;冶金
D 纺织;造纸
E 固定建筑物
F 机械工程、照明、加热
G 物理
H 电学
专利下载VIP
公布日期
2023-10-24 公布专利
2023-10-20 公布专利
2023-10-17 公布专利
2023-10-13 公布专利
2023-10-10 公布专利
2023-10-03 公布专利
2023-09-29 公布专利
2023-09-26 公布专利
2023-09-22 公布专利
2023-09-19 公布专利
更多 »
专利权人
国家电网公司
华为技术有限公司
浙江大学
中兴通讯股份有限公司
三星电子株式会社
中国石油化工股份有限公司
清华大学
鸿海精密工业股份有限公司
松下电器产业株式会社
上海交通大学
更多 »
钻瓜专利网为您找到相关结果66个,建议您升级VIP下载更多相关专利
  • [发明专利]检测并呈现对象上的表面变化的方法、执行其的设备和多个设备构成的系统-CN202180091899.0在审
  • J·F·施米德 - 罗伯特·博世有限公司
  • 2021-12-17 - 2023-10-27 - G06T7/579
  • 提出了一种用于识别并呈现在对象(22)、尤其是建筑物、优选地建筑物的地板上的表面变化(20)的方法,其中在至少一个方法步骤(70)中,借助于设备(12)、尤其是机器人的相对于所述对象(22)可移动的摄像机(26),通过多个图像来检测所述对象(22)的表面(24),其中在至少一个方法步骤(80)中,借助于评估单元(34),通过对所述表面(24)的表面部分(50)的至少两个时间上彼此间隔开地检测的图像的比较,确定在所述表面部分(50)内的至少一种表面变化(20),其中在至少一个另外的方法步骤(82)中,借助于所述评估单元(34),通过根据所述表面部分(50)的所检测到的图像进行的具有所述表面变化(20)的表面部分(50)在所述对象(22)的表面(24)上的分配,确定在所述对象(22)上的所述至少一种表面变化(20)的位置,而且其中在至少一个方法步骤(84)中,借助于输出单元(28),呈现在所述对象(22)上的所述至少一种表面变化(20)的所确定的位置。
  • 检测呈现对象表面变化方法执行设备构成系统
  • [发明专利]一种基于图像的视觉伺服的雅可比矩阵深度估计方法-CN202011611379.1有效
  • 董久祥;公冶庆旋 - 东北大学
  • 2020-12-30 - 2023-10-20 - G06T7/579
  • 本发明涉及一种基于图像的视觉伺服的雅可比矩阵深度的信息估计方法,包括如下步骤:S1、确定选择的状态的数量;S2、根据选择的状态的数量和图像的视觉伺服IBVS,建立基于卡尔曼滤波器的观测器模型;S3、根据建立的基于卡尔曼滤波器的观测器模型获得基于图像的视觉伺服IBVS的雅可比矩阵未知深度的估计信息;所述状态的数量包括:单一状态和多状态;提取雅可比矩阵的部分深度信息作为基于卡尔曼滤波器的观测器模型的状态向量。本发明提供的信息估计方法从图像雅可比矩阵中提取深度信息或深度信息以及二维图像点坐标作为卡尔曼滤波器的状态向量,大大提高了准确率;同时,通过六自由度机械臂的仿真和实验结果验证了该方法的有效性。
  • 一种基于图像视觉伺服可比矩阵深度估计方法
  • [发明专利]移动场景下基于视频生成毫米波雷达数据的方法及装置-CN202310725723.7在审
  • 赵东;马华东;张紫涵;邓凯凯;王书岳;郑文昕 - 北京邮电大学
  • 2023-06-19 - 2023-09-05 - G06T7/579
  • 本发明公开了一种移动场景下基于视频生成毫米波雷达数据的方法及装置,属于毫米波雷达移动感知领域,包括人体网格提取与校准和反射与噪声信号估计两个组件。人体网格提取与校准组件,用于准确估计相机和人的真实位置,包括模糊和抖动过滤器、人体网格提取模块、相机姿态估计模块和人体位置校准模块;反射与噪声信号估计组件,用于模拟雷达信号的多径反射与衰减以及背景噪声,包括深度预测模型、反射模型、时空噪声估计模块和U‑Net网络模块。本发明利用丰富的动态视频数据生成大量逼真的、可转换的动态毫米波雷达数据,包括多普勒数据和点云数据,有效解决了移动场景中毫米波雷达数据不足的问题,可应用于动作识别、目标检测等应用中。
  • 移动场景基于视频生成毫米波雷达数据方法装置
  • [发明专利]一种耦合多目标跟踪的视觉SLAM方法-CN202310262036.6在审
  • 陈光柱;苟荣松;蒲鑫 - 成都理工大学
  • 2023-03-17 - 2023-08-22 - G06T7/579
  • 本发明提出了一种耦合多目标跟踪的视觉SLAM方法。该方法分为耦合视觉里程及前端以及图优化后端。首先,利用扩展卡尔曼滤波(EKF)在目标检测信息的基础之上对目标进行跟踪;然后,根据EKF获取的目标运动信息对当前特征进行分类,静态特征被用于获取相机的位姿信息,动态特征被用于获取目标的6‑DOF位姿信息;最后,建立了一个多元因子图优化模型,对相机位姿、目标位姿、静态3D点、运动上的动态3D点进行了联合优化。本发明针对SLAM系统在动态环境下的定位精度低、获取目标信息不足的问题,研究场景中的目标信息对机器人在定位、建图过程中的作用;本发明能够实现移动设备在动态环境中获取准确的相机位姿信息以及目标位姿信息,并对场景中的目标进行跟踪。
  • 一种耦合多目标跟踪视觉slam方法
  • [发明专利]用于跟踪移动设备的方法和系统-CN202310512328.0在审
  • P·迈耶;S·利伯克内希特 - 苹果公司
  • 2013-12-19 - 2023-07-25 - G06T7/579
  • 本公开涉及用于跟踪移动设备的方法和系统。本发明公开了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括以下步骤:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。本发明还涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法。
  • 用于跟踪移动设备方法系统
  • [发明专利]一种利用事件相机检测TOF相机运动伪差的方法-CN202211719136.9在审
  • 郑灵杰;杨洋;马佩服;王继凯 - 杭州蓝芯科技有限公司
  • 2022-12-30 - 2023-07-04 - G06T7/579
  • 本发明涉及一种利用事件相机检测TOF相机运动伪差的方法,包括:获取事件相机与TOF相机间像素坐标的映射关系;从同一时间分别开始获取事件相机输出的事件以及TOF相机进行拍摄直至TOF相机得到TOF相机深度图像;基于映射关系,将第一时间段事件相机输出的每一事件,映射到TOF相机深度图像的坐标系,得到每一事件所映射到TOF相机深度图像的坐标系下的坐标;基于每一事件所映射到TOF相机深度图像的坐标系下的坐标,分别确定每一事件所对应的在指定像素坐标点上有运动物体的概率;基于TOF相机深度图像、每一事件所对应的在指定像素坐标点上有运动物体的概率、预先指定的阈值,获取去除运动伪差的TOF相机深度图像。
  • 一种利用事件相机检测tof运动方法
  • [发明专利]基于单目视觉的目标深度估计方法、装置及车辆-CN202310193407.X在审
  • 苏国威;张超 - 北京四维图新科技股份有限公司
  • 2023-02-28 - 2023-06-23 - G06T7/579
  • 本公开提供的一种基于单目视觉的目标深度估计方法、装置及车辆,涉及自动驾驶技术,包括:获取摄像机采集获取的目标物的原始视频帧数据;从原始视频帧数据中抽取多个目标图像,由多个目标图像构成目标视频帧数据;识别目标图像中的目标物以获取目标物的实际像素坐标;按照时间顺序依次确定目标视频帧数据中除了时间最晚的目标图像之外的其他目标图像中的目标物的预测像素坐标;根据预测像素坐标和实际像素坐标,以更新获取目标深度值。可利用目标图像中目标物的实际像素坐标,确定与之相邻的下一个目标图像中目标物的预测像素坐标;然后根据实际像素坐标与预测像素坐标之间的距离,以更新获取目标深度值,从而可以满足实时性要求。
  • 基于目视目标深度估计方法装置车辆
  • [发明专利]一种基于极线约束的单目线特征地图构建方法-CN202010247787.7有效
  • 罗永恒;魏武;周方华;李奎霖;黄林青 - 华南理工大学
  • 2020-03-31 - 2023-06-16 - G06T7/579
  • 本发明提供了一种基于极线约束的单目线特征地图构建方法,包括以下步骤:1.对相邻两帧图像Ki,Kj,使用光流跟踪法跟踪特征点,寻找参考角点和跟踪角点的本质矩阵;2.提取每一帧图像的LSD线特征,计算LBD描述子;3.计算参考帧每一条直线li的中点极线,并计算与其对应的匹配直线的夹角θ大小;4.从li的点集Pi,k选取直线上的点,计算点对应的极线与匹配直线的交点,交点集合为Ii,k;5.确定点集Pj,k;6.对点集进行归一化和三角化,确定空间点点集Pk,拟合直线Lk.S7.直线重投影到第i帧和第j帧,构建重投影误差,更新相机位姿和空间直线;8.确定端点空间直线起点和终点;9.更新直线。
  • 一种基于约束单目线特征地图构建方法
  • [发明专利]一种基于深度网络与运动信息的单目室内深度估计算法-CN202211588566.1在审
  • 金兢;周永乐;廖志伟;赵玲娜 - 合肥工业大学
  • 2022-12-09 - 2023-05-30 - G06T7/579
  • 本发明公开了一种基于深度网络与运动信息的单目室内深度估计算法。首先,通过为较好的解决动态场景下特征提取不准确的问题,本发明通过设计编解码深度估计网络架构,根据前后帧的约束关系,提出了一种联合深度网络和运动信息的单目室内深度估计算法。其核心思想是利用帧间几何约束关系充分挖掘相邻帧间的上下文信息,并通过光流估计法跟踪相邻帧间的运动区域信息,利用运动矢量(Motion Vector,MV)推断深度信息,再结合分层特征提取网络,通过联合传统几何约束和深度神经网络的特征提取方法,最终实现室内静态、动态场景深度估计,进一步提升了单目室内深度估计算法的适应性和鲁棒性。
  • 一种基于深度网络运动信息室内估计算法
  • [发明专利]用于跟踪移动设备的方法和系统-CN201910437404.X有效
  • P·迈耶;S·利伯克内希特 - 苹果公司
  • 2013-12-19 - 2023-05-09 - G06T7/579
  • 本公开涉及用于跟踪移动设备的方法和系统。本发明公开了一种在真实环境中跟踪包括至少一个相机的移动设备的方法,该方法包括以下步骤:接收与由至少一个相机所捕获的至少一个图像相关联的图像信息;基于由车辆的至少一个传感器在采集过程中所采集的环境数据或车辆状态数据来生成真实环境的至少一部分的第一几何模型,该车辆不同于移动设备;以及基于与至少一个图像相关联的图像信息并且至少部分地根据第一几何模型来执行跟踪过程,其中该跟踪过程确定移动设备相对于真实环境的姿态的至少一个参数。本发明还涉及一种使用来自移动设备的至少一个相机的图像信息来生成真实环境的至少一部分的几何模型的方法。
  • 用于跟踪移动设备方法系统

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top