[发明专利]一种基于ASPP-CycleGAN的深度估计系统及其算法有效

专利信息
申请号: 202110556630.7 申请日: 2021-05-21
公开(公告)号: CN113298861B 公开(公告)日: 2022-09-16
发明(设计)人: 张昀;徐钦晨;李润琦;姚成杰;毛新涛;黄橙;吴梦洁;于舒娟 申请(专利权)人: 南京邮电大学
主分类号: G06T7/593 分类号: G06T7/593;G06T9/00;G06N3/04;G06N3/08
代理公司: 南京纵横知识产权代理有限公司 32224 代理人: 韩红莉
地址: 210003 江苏*** 国省代码: 江苏;32
权利要求书: 查看更多 说明书: 查看更多
摘要: 发明公开了一种基于ASPP‑CycleGAN的深度估计系统及其算法,构建ASPP‑CycleGAN模型,ASPP‑CycleGAN模型中包括两个生成对抗网络;两个生成对抗网络均包括生成器和判别器;生成器引用空洞卷积的空间金字塔,判别器采用多层全域卷积结构。在生成器的编码器和解码器之间添加基于空洞卷积的空间金字塔结构,用来提取多尺度信息;且在提取多尺度信息的同时避免了过多下采样层,有效减少了模型参数计算量并很好的保留了特征的细节信息。
搜索关键词: 一种 基于 aspp cyclegan 深度 估计 系统 及其 算法
【主权项】:
暂无信息
下载完整专利技术内容需要扣除积分,VIP会员可以免费下载。

该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于南京邮电大学,未经南京邮电大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服

本文链接:http://www.vipzhuanli.com/patent/202110556630.7/,转载请声明来源钻瓜专利网。

同类专利
  • 图像处理方法、装置、电子设备及存储介质-202210369448.5
  • 杨荣浩;郭锦斌;卢志德 - 鸿海精密工业股份有限公司
  • 2022-04-08 - 2023-10-24 - G06T7/593
  • 本申请涉及图像分析技术,提供一种图像处理方法、装置、电子设备及存储介质。所述图像处理方法包括:获取行驶车辆在行驶过程中的行驶左图像及行驶右图像,生成与行驶左图像对应的实例分割左图像及与行驶右图像对应的实例分割右图像,基于自编码器对行驶左图像进行重构处理,得到预测视差图,根据行驶左图像、预测视差图及行驶右图像生成第一误差值,并根据实例分割左图像、预测视差图及实例分割右图像生成第二误差值,根据第一误差值及第二误差值调整自编码器,得到自编码模型,获取待测车辆在行驶过程中的测试行驶图像,根据自编码模型对测试行驶图像进行重构得到目标视差图,转换目标视差图,能够生成精细化的深度图像。
  • 基于深度学习的脑部CT图像三维重建方法及装置-202311176561.2
  • 邓颖 - 四川大学华西医院
  • 2023-09-13 - 2023-10-20 - G06T7/593
  • 本发明提供了一种基于深度学习的脑部CT图像三维重建方法及装置,涉及医疗影像技术领域,包括获取第一信息和第二信息;根据第一信息和预设的脑部图像降噪数学模型进行区域划分处理得到第三信息,第三信息为降噪后的脑部CT图像;根据第三信息和预设的深度学习数学模型进行无监督训练处理,构建得到三维重建模型;基于三维重建模型,将第二信息作为模型的输入值进行实时构建处理得到脑部三维图像;根据脑部三维图像进行渲染处理,并将渲染后的三维图像进行可视化呈现得到输出图像。本发明通过采用基于深度学习的降噪和重建方法,能够恢复低剂量脑部CT图像中可能丢失的微观细节和结构信息,从而提高了图像的清晰度和对比度。
  • 一种自适应光照模型建模方法与系统-202310869532.8
  • 何冰;王浩洋;徐晓明;何良华;郭歌;孟夏卿;余快;印明骋;刘龙飞;马野 - 国网上海市电力公司
  • 2023-07-17 - 2023-10-20 - G06T7/593
  • 本发明公开了一种自适应光照模型建模方法与系统,所述方法包括:根据深度图计算图中表面采样点在相机坐标系空间中的位置,构成三维表面采样点云,创建坐标系映射表,对点云进行孔洞填充后,基于投影和空圆检测对点云进行三角网格化,得到三角网格模型;根据彩色图自适应生成图中不同表面的渲染参数,并根据坐标系映射表将渲染参数映射到坐标系中,得到三角网格模型中每个顶点的渲染参数,根据渲染参数计算表面颜色,根据计算的表面颜色对三角网格模型进行着色与渲染,得到三维重建对象的光照模型。本发明可提高三维重建的可复用性,提高三维重建的外观真实性和艺术性,为架空输电线路运维检修三维重建外观重建提供了新思路。
  • 一种三维建模约束的多模态目标物体姿态估计方法及系统-202310911560.1
  • 王海滨;李卫民;徐熠;穆新星;王强 - 山东中科先进技术有限公司
  • 2023-07-25 - 2023-10-20 - G06T7/593
  • 本发明涉及多模态物体姿态估计领域,提供了一种三维建模约束的多模态目标物体姿态估计方法及系统。该方法包括,获取目标物体二维图像和目标物体激光雷达点云数据;提取目标物体二维图像的图像语义信息和图像深度信息,融合图像语义信息和图像深度信息进行三维化表达,得到三维语义特征;提取目标物体激光雷达点云数据的点云特征;将三维语义特征和点云特征进行融合,得到多模态融合特征;对多模态融合特征进行关键点检测处理,得到三维关键点;将三维关键点与目标物体CAD模型进行匹配,求解目标物体的姿态。本发明能够有效识别目标物体姿态,根据其姿态帮助完成路径规划或者视觉定位等后续工作,实现姿态估计的高精度工作需求。
  • 3D医学图像的深度信息处理装置及方法-202310973959.2
  • 蔡惠明;李长流;朱淳;潘洁;胡学山;卢露;倪轲娜;王玉叶;张岩 - 南京诺源医疗器械有限公司
  • 2023-08-04 - 2023-10-20 - G06T7/593
  • 本发明涉及医学图像数据处理技术领域,具体涉及3D医学图像的深度信息处理装置及方法,本发明分别通过视差信息提取模型、深度估计神经网络模型将待处理2D医学图像转化成两个预估3D医学图像,然后利用深度信息处理模型分别对两个预估3D医学图像进行处理,得到两个3D医学图像深度信息;之后,根据预设图像深度信息权重,结合两个3D医学图像深度信息进行计算,得到最终的3D医学图像的深度信息,基于最终的3D医学图像的深度信息、待处理2D图像重建3D医学图像。本发明通过上述方式能够优化3D医学图像的深度信息,提升3D医学图像的重建效果,为医学诊断提供更精确的数据支持。
  • 一种生成视差图的方法及装置-201811581959.3
  • 庞成山;杨平;谢迪;浦世亮 - 杭州海康威视数字技术股份有限公司
  • 2018-12-24 - 2023-10-20 - G06T7/593
  • 本申请是关于一种生成视差图的方法及装置,属于图像处理技术领域。所述方法包括:通过双目摄像机进行拍摄得到第一图片和第二图片,所述第一图片和所述第二图片包括地面图像;将所述第一图片和所述第二图片输入用于生成视差图的卷积神经网络,获取所述卷积神经网络根据所述第一图片和所述第二图片生成的所述第一图片的视差图和所述第二图片的视差图。所述装置包括:创建模块和获取模块。本申请能够提高生成视差图的效率。
  • 一种基于双目视觉的多重遮挡目标的测距方法-201910669295.4
  • 陈世同;吴桐;赵成成;聂文哲;王珍珍;曹欣;温雅 - 哈尔滨工程大学
  • 2019-07-24 - 2023-10-13 - G06T7/593
  • 本发明属于双目测距技术领域,具体涉及一种基于双目视觉的多重遮挡目标的测距方法。在进行目标测距时,本发明方法先通过SGBM立体匹配算法得出图像的视差图,将获得的视差图与SSD算法生成的目标检测框相结合,由于原始图像与视差图中各目标位置一一对应,因此可以得到目标检测框的视差图,剔除背景干扰后再结合目标检测结果按照由近到远的排序逐个提取目标的距离信息生成目标视差图的灰度直方图,进一步排除遮挡目标干扰,再选取目标灰度直方图主峰值对应的灰度值进行分析计算得到目标的深度信息从而测距。当进行双目测距时出现多个目标遮挡的情况,本发明方法可以更准确地检测出较复杂环境中目标的距离。
  • 非视域图像重建方法及计算机可读存储介质、终端设备-202310633708.X
  • 陈松懋;苏秀琴;郝伟;谢梅林;徐伟豪;张振扬;王杰 - 中国科学院西安光学精密机械研究所
  • 2023-05-31 - 2023-09-29 - G06T7/593
  • 本发明涉及图像重建方法,具体涉及非视域图像重建方法及计算机可读存储介质、终端设备,为解决现有技术中拉普拉斯锐化等常见的图像去噪方法难以恢复目标细节,且利用深度神经网络进行图像重建的方法需大量数据与计算资源支持的不足之处。本发明非视域图像重建方法通过物理成像模型与隐空间映射将原始三维回波数据映射至特征隐空间,获得局部特征的强度图以及深度图后,再通过对强度图归一化处理、生成三维门控、选取感兴趣区域重建值等步骤将局部特征映射回三维空间,获得去噪器,最后基于去噪正则化的框架建立非视域图像重建模型,确保其收敛性。
  • 基于全对焦图像合成的无监督焦点堆栈深度估计方法-202311101094.7
  • 黄章进;周萌 - 中国科学技术大学
  • 2023-08-30 - 2023-09-29 - G06T7/593
  • 本发明公开了一种基于全对焦图像合成的无监督焦点堆栈深度估计方法,1、包括:S1、利用基于图像金字塔和基于焦点测量算子进行全对焦图像计算,得到对应的全对焦图像,将得到的全对焦图像进行融合并作为监督信息;S2、通过三维感知模块对焦点堆栈进行高频噪声过滤和初步特征提取;S3、将三维极化自注意力机制引入焦点堆栈中,将输入特征图分为通道极化特征图和空间极化特征图;S4、采用分层深度概率预测模块定位焦点堆栈最大清晰度所在的层次,并输出对应的概率值,确定最佳清晰度所在的层次,获得全对焦图像。本发明在深度预测方面表现出相对高的准确性和良好的泛化性能,适用于不同场景下的深度估计任务,具有很高的实用性。
  • 图像深度信息的确定方法、装置、电子设备和介质-202210129100.9
  • 毋戈;周宇 - 北京百度网讯科技有限公司
  • 2022-02-11 - 2023-09-26 - G06T7/593
  • 本公开提供了一种图像深度信息的确定方法、装置、电子设备和介质,涉及图像处理技术领域,尤其涉及三维点云、云计算及云服务技术领域。具体实现方案为:获取第一预测层输出的目标图像中像素点的第一深度信息;根据所述第一深度信息生成所述目标图像的点云模型,并根据所述点云模型确定在第二预测层中所述目标图像中像素点的初始深度信息;根据所述初始深度信息进行传播优化,确定所述第二预测层输出的所述目标图像中像素点的第二深度信息;其中,所述第一预测层位于所述第二预测层之前。本公开实现了提高确定图像深度信息的精准度和完整度的效果。
  • 一种面向智能伴行巡视器的深度及3D关键点估计方法-202310647428.4
  • 刘荣科;孙叔桥 - 北京航空航天大学;深圳北航新兴产业技术研究院
  • 2023-06-02 - 2023-09-22 - G06T7/593
  • 本发明提出一种面向智能伴行巡视器的深度及3D关键点估计方法:从双目红外图像中,端到端地实现深度估计,同时可以自动从深度图中识别被检测区域,并完成对目标的3D关键点识别。校正后的左右视点图像共同经过参数共享的特征提取模块,分别进入深度估计分支实现深度估计和进入关键点分支实现3D关键点识别。本发明能够同时实现从双目红外图像到深度图和3D关键点的端到端估计,避免了繁琐的中间过程,提高了深度图估计和3D关键点识别的计算量和操作复杂度;通过特征共享,实现了各分支之间的参数学习过程的联合约束,提升了各任务的推理精度;本发明实现了深度估计任务中匹配代价聚合效率的提升,也实现了关键点估计任务中的坐标计算效率提升。
  • 一种基于稀疏采集的傅里叶全息图生成重建方法-202310841018.3
  • 朴美兰;张家鹏 - 吉林大学
  • 2023-07-10 - 2023-09-22 - G06T7/593
  • 本发明涉及一种基于稀疏采集的傅里叶全息图生成重建方法,属于傅里叶全息图生成重建方法。采用基于稀疏采集的集成成像方法生成物体的立体元图像;根据物体的立体元图像进行多视角投影非相干傅里叶计算全息图生成与仿真重建。本发明优点是使用基于SAD寻找方法的块匹配积分投影法同传统的图像识别灰度积分投影法相比,计算得到的视差误差率由3.125%下降到0.2%,所生成的立体元图像与原物体视图的结构相似度SSIM从0.71上升到了0.75,提升了所生成的立体元图像的准确度,从而使物体傅里叶全息图存储信息和再现图像更加准确,块匹配积分投影方法在运行代码进行块匹配时进行了图像的修正,仅在水平方向上搜索匹配块,与其它算法相比步骤更加简洁。
  • 路面形状感知方法、装置、电子设备及存储介质-202210254266.3
  • 方绍伟;祝勇 - 北京罗克维尔斯科技有限公司
  • 2022-03-15 - 2023-09-22 - G06T7/593
  • 本申请提供了一种路面形状感知方法、装置、电子设备及存储介质。其中方法包括:获取车辆前方场景的场景图像数据;基于所述场景图像数据和双目深度信息感知模型,得到图像深度数据;基于所述图像深度数据和所述路面区域标定信息,获取路面区域对应的路面深度数据;基于所述路面深度数据,构建路面三维模型;提取所述路面三维模型的多个关键点,根据所述多个关键点的坐标信息感知路面形状。可通过视觉传感器数据结合深度学习模型获取深度数据,再根据深度数据获取地面坑洼或凸起的位置及对应的深度或高度,降低感知成本、增强适用性。
  • 一种立体匹配方法、装置和设备-202310539995.8
  • 刘斯宁;何丽兵;赵昌华 - 北京爱芯科技有限公司;杭州爱芯元智科技有限公司
  • 2023-05-15 - 2023-09-22 - G06T7/593
  • 本申请提供了一种立体匹配方法、装置和设备,应用于机器视觉领域,该方法包括:通过对待测物的双目图像对进行预处理,确定双目图像对对应的基准图像和待匹配图像,根据基准图像中的任意一个第一像素和待匹配图像中相对应的第二像素构成的像素对,确定初始视差图;基于基准图像的信息质量和待匹配图像的信息质量,确定初始质量图中各质量值的质量立方体,基于初始视差图对应的初始视差和质量立方体,构造包含各质量值的初始质量图;然后通过初始质量图修复初始视差图,确定目标视差图;本申请在目标视差图确定的过程中,利用图像的信息质量,反映出图像全局的质量,通过初始质量图进行修复,减少修复的计算量,从而提高立体匹配的精度和实时性。
  • 牙齿模型的获得方法、装置、系统及计算机可读存储介质-202310714055.8
  • 夏斌;李可凡;赵一姣;王勇;温奥楠;朱俊霞;王媛媛;吴晓冉 - 北京大学口腔医学院
  • 2023-06-15 - 2023-09-15 - G06T7/593
  • 本申请提供了一种牙齿模型的获得方法、装置、系统及计算机可读存储介质,该方法包括根据牙齿影像,获得多个牙齿分别对应的多个三维牙齿模型,多个牙齿均位于目标牙位;在多个三维牙齿模型中确定形态学参数最接近平均参数的目标牙齿模型;平均参数为多个牙齿三维模型的形态学参数的平均值;对多个三维牙齿模型进行处理,获得多个尺寸和方向与目标牙齿模型一致的待用牙齿模型;将多个待用牙齿模型进行平均处理,获得目标牙位对应的牙齿模型。利用上述方法获得的牙齿模型,对于同一个牙位对应的不同的牙齿的代表性较高,与人类实际牙齿的匹配度高。
  • 基于三分支混合特征提取的双目立体匹配方法及系统-202310882992.4
  • 孙炜;范诗萌;覃业宝;胡曼倩 - 湖南大学
  • 2023-07-19 - 2023-09-15 - G06T7/593
  • 本申请提供一种基于三分支混合特征提取的双目立体匹配方法及系统,将CNN分支、Swin Transformer分支、融合分支并联,保留了CNN分支的局部特征表征能力和Swin Transformer分支的全局特征表征能力及显示的全局信息关联关系;融合分支由多阶段的跨分支信息适配器组成,实现本阶段全局信息和局部信息的融合与表达,提高弱纹理区域和细节区域的匹配精度;通过自适应代价体通道信息强化和自适应代价体组别信息强化,可抑制冗余的语义信息和匹配特征信息,增加有效信息的表达;并通过自适应代价体通道信息强化以平衡不同代价体间的信息表达,得到通道信息强化混合代价体,提高立体匹配精度。
  • 基于分组距离网络的视差预测方法、系统及存储介质-202011156502.5
  • 吴文欢;汤飞;吴岳敏;魏本昌 - 湖北汽车工业学院
  • 2020-10-26 - 2023-09-12 - G06T7/593
  • 本发明属于视觉测距技术领域,公开了一种基于分组距离网络的视差预测方法、系统及存储介质,通过级联多个残差网络模块提取左右视图上每个像素的特征向量,并且对不同深度残差模块生成的特征向量进行拼接,由此融合不同属性的特征信息;对左右视图之间对应像素的特征向量进行分组,并计算对应特征向量的分组距离向量,同时构建4D代价体;采用三个级联的沙漏网络对4D代价体进行3D卷积,并通过视差回归生成最终视差图。本发明能够有效应对场景中诸多干扰因素。通过将分组距离网络在某个场景数据集上进行端到端的训练学习,并可直接利用训练好的网络模型准确地预测出该场景下立体图像的视差图。
  • 深度估计方法、单目深度估计模型生成方法和电子设备-202310411157.2
  • 张雨帆 - 荣耀终端有限公司
  • 2023-04-18 - 2023-09-08 - G06T7/593
  • 本申请提供一种深度估计方法、单目深度估计模型生成方法和电子设备,涉及图像处理技术领域,能够提高电子设备在使用AR功能时,对现实场景中物体的深度信息估计更为准确,提高了深度信息的时序一致性,保证了虚拟物体和现实物体之间的遮挡关系在时间维度上的一致性和准确性,提高了用户的使用体验。该方法包括:训练设备获取目标场景的多个视角的样本拍摄图像和每个样本拍摄图像的GT深度图;训练设备获取目标场景的几何约束;训练设备以样本拍摄图像作为训练数据,样本拍摄图像的GT深度图和样本拍摄图像的几何约束作为监督信息,迭代训练初始单目深度估计模型,得到目标单目深度估计模型。
  • 一种深度图像获取方法、装置及电子设备-202310647031.5
  • 常同辉 - 杭州海康机器人股份有限公司
  • 2023-06-02 - 2023-08-29 - G06T7/593
  • 本申请实施例提供了一种深度图像获取方法、装置及电子设备,应用于仿真技术领域。该方法包括:在目标仿真场景的指定成像位置处构建目标双目相机的仿真双目相机;在目标仿真场景中对仿真双目相机进行标定,得到仿真双目相机的标定参数;在目标仿真场景运行仿真的过程中,利用仿真双目相机采集目标仿真场景的图像数据,得到目标左眼图像和目标右眼图像;基于目标左眼图像、目标右眼图像以及标定参数,生成目标仿真场景的深度图像。通过本方案,可以提高仿真场景中深度图像的真实性。
  • 软组织的三维重建方法、系统及计算机存储介质-202310649825.5
  • 董蒨;边晨源;夏楠;朱呈瞻;魏宾;修文丽 - 青岛大学附属医院
  • 2023-06-02 - 2023-08-18 - G06T7/593
  • 一种软组织三维重建方法、系统级计算机存储介质,该方法包括获取软组织的医学影像数据,对获取的软组织的医学影像数据进行预处理,对预处理的影像进行分割,以及针对软组织分割后的结果构建软组织的三维重建模型;所述分割包括粗略分割环节和精细分割环节;其中,所述粗略分割环节采用预训练的U‑net模型对软组织进行粗略分割;所述精细分割环节采用注意力机制突出目标软组织区域的特征,并结合3D U‑net模型进行软组织精细分割;所述系统包括对应的影像数据获取模块、数据预处理模块、U‑net网络软组织分割模块和软组织三维重建模块;所述计算机存储介质存储有用于执行上述软组织的三维重建方法的计算机程序;本发明方法对于软组织模型的重建具有效率高、精度高的优点。
  • 一种增强2D/3D图像融合中深度感知的可视化方法及装置-202010183820.4
  • 杨健;艾丹妮;范敬凡;杨洋;王涌天 - 北京理工大学
  • 2020-03-16 - 2023-08-08 - G06T7/593
  • 一种增强2D/3D图像融合中深度感知的可视化方法及装置,可以增强2D/3D图像融合显示中的深度感知,使观察者更易感知和理解三维结构,能够用于B型主动脉夹层精准腔内修复手术导航系统中的术前规划以及交互式导航模块,为导航系统提供重要而准确的可视化信息。方法包括:(1)获取三维数据场;(2)对数据进行预处理;(3)对数据进行分类;(4)将深度颜色编码作用于采样点的颜色信息;(5)将边缘轮廓增强作用于采样点透明度信息;(6)通过图像合成得到最后渲染图像的颜色。
  • 三维场景感知方法、装置、电子设备、机器人及介质-202110838071.9
  • 黄锐;李杰 - 深圳市人工智能与机器人研究院
  • 2021-07-23 - 2023-08-04 - G06T7/593
  • 本申请公开了一种三维场景感知方法、装置、机器人、电子设备及可读存储介质。其中,方法包括分别对待感知三维场景的RGB‑D多模态数据的二维图像数据进行二维语义分割和单目深度估计,得到二维语义特征和二维结构特征;分别对RGB‑D多模态数据的三维深度数据进行三维语义分割和三维场景补全,得到三维语义特征和三维结构特征;将二维语义特征和三维语义特征进行特征融合,得到融合语义特征,将二维结构特征与三维结构特征进行特征融合,得到融合结构特征;基于融合语义特征和融合结构特征,通过语义结构并行交互迭代融合方式对待感知三维场景进行三维语义场景补全,得到待感知三维场景的语义类别信息和三维场景结构信息,实现了高效、精准地三维场景感知。
  • 生成电子三维漫游环境的装置和方法-201980000291.5
  • 倪一翔;陈燕儿 - 香港应用科技研究院有限公司
  • 2019-03-06 - 2023-07-28 - G06T7/593
  • 一种生成目标环境的电子3D漫游环境的方法,包括:在目标环境中的第一位置点拍摄全景图;测量相机拍摄全景图时的初始方向;移动经过目标环境,在每个位置点拍摄周围的实况图像,并测量相机的方向;确定是否需要以相机的当前方向在相机的当前位置点拍摄新的全景图,包括:在上次拍摄的全景图中识别出与拍摄的实况图像匹配的子图像;如果无法识别子图像,则需要新的全景图;并通过连接拍摄的全景图生成电子3D漫游环境。
  • 一种低功耗立体匹配系统及获取深度信息的方法-202010762904.3
  • 安丰伟;付宇哲;董平成;陈卓宇;李卓奥 - 南方科技大学
  • 2020-07-31 - 2023-07-25 - G06T7/593
  • 本申请提供了一种低功耗立体匹配系统及获取深度信息的方法,该系统包括依次连接的普查模块、分区优化模块、多路径代价聚合模块以及深度计算模块。本申请通过使用Census算法作为初始像素代价值计算函数,并在Census普查模块与多路径代价聚合模块之间加入分区优化模块简化初始像素代价值,基于分区域处理以及最优视差位置,在不影响精度的情况下减少传入多路径代价聚合模块的初始像素代价值数量,进而降低算法耗时以及资源消耗,并确保精度。
  • 一种矿井安全隐患场景三维重建中自监督深度估计方法-202310247390.1
  • 寇旗旗;徐帅;程德强;王子强;张华强;陈俊辉;王奕;赵麟敖;程志威;马祥;姬广凯;李龙;郑丽娟;张辉敏 - 中国矿业大学
  • 2023-03-15 - 2023-07-21 - G06T7/593
  • 本发明公开了一种矿井安全隐患场景三维重建中自监督深度估计方法,首先分别构建正常光照图像和低光照图像的深度估计网络和姿态估计网络模型,在编码器解码器中间采用自注意力机制的位置感知模块,用以获取场景结构的上下文信息和更好的特征表示;在对网络训练的过程中,使用正常光照图像和通过CycleGAN处理得到的低光照图像进行训练,再采用映射图像增强(MIE)算法处理由CycleGAN输出的图像,以满足保持亮度一致性的需要,解决低光照和光照不均匀带来的影响。增强了细节处的特征表示,加强了对复杂背景处的深度估计效果。加入的映射图像增强模块使得低光照图像的亮度和对比度明显提高,从而为其带来更高的可见性,保留更多的细节。
  • 基于事件数据增强的运动物体重建方法及装置-202310269687.8
  • 高跃;卢嘉轩;万海;赵曦滨 - 清华大学
  • 2023-03-16 - 2023-07-18 - G06T7/593
  • 本申请涉及一种基于事件数据增强的运动物体重建方法及装置,其中,方法包括:采集包含运动物体的运动视频数据;基于运动视频数据生成满足第一预设帧率条件的高帧率重构图像序列;将单视图深度图输入预设点云生成网络,生成单视图稠密点云;将每个视角下的单视图稠密点云输入预设多视图点云融合网络,得到融合后的稠密点云;将每一时刻获得的融合后的稠密点云进行处理,渲染得到物体三维运动轨迹。由此,解决了相关技术中,通过检测或分割算法,难以获得高速运动物体准确的运动轨迹,鉴于传统相机在采集数据时基于固定帧率,阻碍了对高速运动物体的追踪能力,降低了对运动物体重建的精细化水平等问题。
  • 一种基于激光条纹线的立体匹配方法-202310109230.0
  • 陈迪来;吴玉波;孙效杰;李宁洲;卫晓娟 - 上海应用技术大学
  • 2023-02-13 - 2023-07-14 - G06T7/593
  • 本发明公开了一种基于激光条纹线的立体匹配方法,包括步骤1:获取左、右相机采集的左激光条纹图像和右激光条纹图像;步骤2:分别对左激光条纹图像和右激光条纹图像进行预处理;步骤3:利用改进的Steger算法求取出激光条纹中心线;步骤4:依次选取左激光条纹图像的中心线点,并与右激光条纹图像中的线点进行匹配;步骤5:计算出匹配点视差阈值。本申请实施可以实现亚像素坐标点的立体匹配,精度值更高,有利于恢复三维点云。
专利分类
×

专利文献下载

说明:

1、专利原文基于中国国家知识产权局专利说明书;

2、支持发明专利 、实用新型专利、外观设计专利(升级中);

3、专利数据每周两次同步更新,支持Adobe PDF格式;

4、内容包括专利技术的结构示意图流程工艺图技术构造图

5、已全新升级为极速版,下载速度显著提升!欢迎使用!

请您登陆后,进行下载,点击【登陆】 【注册】

关于我们 寻求报道 投稿须知 广告合作 版权声明 网站地图 友情链接 企业标识 联系我们

钻瓜专利网在线咨询

400-8765-105周一至周五 9:00-18:00

咨询在线客服咨询在线客服
tel code back_top