[发明专利]基于光场单相机的非合作航天器三维位姿测量系统在审

专利信息
申请号: 201710268367.5 申请日: 2017-04-22
公开(公告)号: CN107103621A 公开(公告)日: 2017-08-29
发明(设计)人: 许晟明 申请(专利权)人: 许晟明
主分类号: G06T7/557 分类号: G06T7/557;G06T7/70;G06T7/80;G06T17/00
代理公司: 暂无信息 代理人: 暂无信息
地址: 200240 上海市闵行区东川路8*** 国省代码: 上海;31
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种属于机器视觉技术领域的基于光场单相机的非合作航天器位三维位姿测量方案,该测量方案包括硬件系统和算法两部分,硬件系统包括高分辨率的光场单相机,算法包括光场单相机校准算法、光场单相机深度估计算法和基于深度估计点云结果的三维形貌重建算法。本方案用于非合作航天器位姿测量时,可以做到实时获取航天器的方位、三维形貌、三维姿态等信息,相较于同样是基于光学成像敏感器的多目立体视觉以及激光扫描手段,有着设备占用空间小、工作模式简单、质量轻、能源消耗少等优点,适用于需要长时间连续运行的非合作航天器实时位姿测量。
搜索关键词: 基于 光场单 相机 合作 航天器 三维 测量 系统
【主权项】:
一种基于光场单相机的非合作航天器三维位姿测量系统,其特征在于包括硬件系统和算法两部分;硬件系统包括主动对接航天器、被动对接航天器和高分辨率光场单相机,高分辨率光场单相机安装在主动对接航天器上,高分辨率光场单相机由一台高分辨率工业相机的光敏感成像元件前装配一块高分辨微透镜阵列而成;算法包括光场单相机校准算法、光场单相机深度估计算法和基于深度估计点云结果的三维形貌重建算法;三维形貌重建算法整合深度估计算法的结果,形成航天器可视化的深度图像。
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于许晟明,未经许晟明许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/201710268367.5/,转载请声明来源钻瓜专利网。

同类专利
  • 一种两种深度线索融合的光场全聚焦图像提取方法及系统-201910525553.1
  • 苏文博;段福洲;关鸿亮 - 首都师范大学
  • 2019-06-18 - 2019-09-17 - G06T7/557
  • 本发明公开一种两种深度线索融合的光场全聚焦图像提取方法及系统。方法包括:通过光场相机获取光场原始图像;根据所述光场原始图像进行数字重聚焦,得到光场焦点堆栈;计算所述光场焦点堆栈的散焦线索响应和匹配线索响应;计算所述散焦线索响应的置信度和所述匹配线索响应的置信度;将所述散焦线索响应的置信度和所述匹配线索响应的置信度进行加权融合,得到索引矩阵;根据所述索引矩阵对所述光场焦点堆栈进行重采样,得到光场全聚焦图像。本发明能够解决光场拼接过程中多幅图像转换矩阵计算不精确的问题。
  • 基于卷积神经网络的光场深度估计方法、系统及介质-201811393354.1
  • 马浩鑫 - 马浩鑫
  • 2018-11-21 - 2019-03-29 - G06T7/557
  • 本发明提供了一种基于卷积神经网络的光场深度估计方法、系统及介质,包括:从光场相机的多视角图像出发(包括从微透镜阵列光场相机与相机阵列中得到的多视角图像),对于N*N个视角的光场多视角图像,将其输入神经网络,经过神经网络计算之后,得到视差图。出于通用性考虑,本发明的技术方案包括以彩色图输入和以灰度图输入两种版本。本发明提供的计算视差的技术方案在达到或优于现有技术中算法精度的基础上,通过优选例进一步提升改进,以解决对反光、无纹理区域的视差准确估计的问题。
  • 一种光场图像深度估计方法及装置-201811124060.9
  • 张典;段谊海 - 郑州云海信息技术有限公司
  • 2018-09-26 - 2019-01-22 - G06T7/557
  • 本发明实施例公开了一种光场图像深度估计方法,方法包括:获取重建的光场图像信息;对所述光场图像进行重聚焦,并利用散焦深度线索和一致性深度线索进行计算得到所述光场图像的初始深度信息;采用马尔科夫融合算法对所述初始深度信息进行计算,得到所述光场图像的深度信息。通过本发明的方案,实现了一种可以获得光场图像更精确的深度信息方法。
  • 一种针对光场阵列相机的基于重投影的重聚焦方法及系统-201711142290.3
  • 杨俊刚;肖超;王应谦;李骏;安玮 - 杨俊刚;肖超;王应谦
  • 2017-11-17 - 2018-05-01 - G06T7/557
  • 本发明公开了一种针对光场阵列相机的基于重投影的重聚焦方法及系统,对相机阵列进行校正;指定相机阵列中的一个相机为参考相机,通过反投影求解所述参考相机的像素坐标对应的世界坐标网格点;将所述世界坐标网格点通过其他相机重投影为像素坐标,根据所述像素坐标,将对应的图像进行插值,得到对准到指定平面的图像;将插值得到的图像相加求平均值即得到聚焦于指定平面的图像。本发明方法简单灵活,只需要改变聚焦平面的方程就可以得到相应的重聚焦图像,操作方便,易于编程实现。随着阵列相机的不断推广,本发明的方法具有较大的实用价值。
  • 针对光场阵列相机重聚焦图像的全景深融合方法及系统-201711142288.6
  • 杨俊刚;王应谦;肖超;李骏;安玮 - 杨俊刚;王应谦;肖超
  • 2017-11-17 - 2018-03-27 - G06T7/557
  • 本发明公开了一种针对光场阵列相机重聚焦图像的全景深融合方法及系统,对所有待融合的多聚焦图像进行静态小波分解;对于细节小波系数,对一系列的细节系数取绝对值,将绝对值最大的系数作为最终用来重构融合图像的细节小波系数;对于近似小波系数,求取一系列对应位置近似小波系数的平均值,将平均值作为最终用来重构融合图像的近似小波系数;对上述用来重构融合图像的小波系数采取静态小波逆变换,最终得到全景深的融合图像。采用本发明的方法,可以使大量具有浅景深的多聚焦图像较好地融合成为一幅全景深图像,很好的抑制了传统融合方法导致的振铃效应以及色彩失真。
  • 一种基于4D光场的深度估计方法-201510324490.5
  • 王立春;樊东灵;孔德慧;尹宝才 - 北京工业大学
  • 2015-06-12 - 2017-12-26 - G06T7/557
  • 本发明公开了一种基于4D光场的深度估计方法,其能够解决初始深度值的可靠性问题、深度过平滑问题、深度值融合问题。这种基于4D光场的深度估计方法,包括步骤(1)初始深度估计;(2)检测可计算像素;(3)深度值计算;(4)深度值传播;(5)深度值扩散;(6)判断图像分辨率是否小于10×10,是则执行步骤(8),否则执行步骤(7);(7)下采样原图像,并用标准差为0.5、5×5大小的高斯滤波做平滑处理避免失真,跳转至步骤(2);(8)赋予公式(11)计算的深度值,结束。
  • 基于光场单相机的非合作航天器三维位姿测量系统-201710268367.5
  • 许晟明 - 许晟明
  • 2017-04-22 - 2017-08-29 - G06T7/557
  • 本发明公开了一种属于机器视觉技术领域的基于光场单相机的非合作航天器位三维位姿测量方案,该测量方案包括硬件系统和算法两部分,硬件系统包括高分辨率的光场单相机,算法包括光场单相机校准算法、光场单相机深度估计算法和基于深度估计点云结果的三维形貌重建算法。本方案用于非合作航天器位姿测量时,可以做到实时获取航天器的方位、三维形貌、三维姿态等信息,相较于同样是基于光学成像敏感器的多目立体视觉以及激光扫描手段,有着设备占用空间小、工作模式简单、质量轻、能源消耗少等优点,适用于需要长时间连续运行的非合作航天器实时位姿测量。
  • 基于光场图像角度域像素的深度估计方法及系统-201710174505.3
  • 金欣;秦延文;戴琼海 - 清华大学深圳研究生院
  • 2017-03-22 - 2017-08-11 - G06T7/557
  • 本发明提供一种基于光场图像角度域像素的深度估计方法,包括A1.输入光场图像数据进行重聚焦;提取基于颜色通道的角度域像素强度一致性的深度张量,根据该深度张量进行深度估计,获得初始深度图像Draw;A2.对所述初始深度图像Draw进行置信度分析通过分析归一化的角度域像素一致性变量图像的最低点邻域内的方差,根据阈值,判定置信区域Ω和非置信区域;A3.根据置信区域Ω,建立优化模型,对非置信区域进行优化,填充非置信点,得到增强的深度图像Dopt。该方法使图像纹理平滑区域的深度更加准确,深度过渡感增强,实际场景物体的边界更加清晰,从而使深度图像得到增强。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top