[发明专利]一种基于相位-双分辨率网络的全息图快速生成方法在审
申请号: | 202210029238.1 | 申请日: | 2022-01-11 |
公开(公告)号: | CN114387395A | 公开(公告)日: | 2022-04-22 |
发明(设计)人: | 王帅;于挺;田子建 | 申请(专利权)人: | 中国矿业大学(北京) |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06N3/04;G06N3/08 |
代理公司: | 暂无信息 | 代理人: | 暂无信息 |
地址: | 100083 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 相位 分辨率 网络 全息图 快速 生成 方法 | ||
本发明公开了一种基于相位‑双分辨率网络的全息图快速生成方法,该方法包括:无需制作真实的纯相位全息图掩模,利用角谱法的可微性,使用自然图像实现卷积神经网络的无监督训练;卷积层在同一空间学习特征映射,而不是跨距离学习特征映射;使用空洞卷积和组卷积降低网络模型计算量和GPU的内存占用率;使用MS‑SSIM损失和MSE损失的组合作为一致性损失函数,以生成更加符合人类视觉系统的重建图。本申请计算生成一幅1080P分辨率的全息图仅需57毫秒,且最优的数值重建图与目标强度图的峰值信噪比达到了31.17dB。
技术领域
本发明涉及计算生成全息领域和计算机视觉领域,特别是涉及一种基于相位-双分辨率网络的全息图快速生成方法。
背景技术
全息显示被认为是一种先进的显示技术,逐渐应用于三维场景重建、虚拟现实和增强显示系统中,使无需眼镜的三维显示模式成为可能。在实现实时全息显示的同时,如何保证全息显示影像的高保真度仍然是一个难题。相位型的空间光调制器光学效率较高,重构过程中无共轭图像的干扰,纯相位全息图已成为计算生成全息图的主要编码方法。因此,开发一种能够实时计算生成高质量相位型全息图的算法,对于全息显示技术的发展具有重要意义。
半个多世纪以来,人们推出了多种计算生成全息图的算法,主要包括迭代优化算法和非迭代优化算法。1972年提出的Gercheberg-Saxton算法是迭代优化计算生成全息图的典型代表。随后也有一些基于Gercheberg-Saxton迭代优化算法的改进算法,如,在Gercheberg-Saxton 迭代优化算法中添加随机噪声优化生成全息图;双向误差扩散算法生成全息图;通过梯度下降或Wirtinger导数求解非凸优化问题间接计算生成全息图等。由于迭代优化算法需要花费较长计算时间生成全息图,不适用于大规模、高分辨率全息图的实时计算,因此,有研究学者提出非迭代优化算法,如,双相位幅值编码和一步相位提取算法等。虽然非迭代优化算法计算速度得到大幅度提升,能够满足实时计算,但全息图的重建图像包含较多的散斑噪声。因此,非迭代优化算法无法保证计算生成全息图的质量。
近年来,随着算法研究的不断深入,深度学习技术逐渐被引入光学领域,深度学习相关算法的出现也为计算生成全息图提供了新方法。卷积神经网络作为广义近似函数,可以学习输入和输出之间的映射。2021年,Shi等人引入了大规模菲涅耳全息数据集,训练卷积神经网络生成逼真的三维全息图,并且能够变换焦距。也有研究人员利用菲涅尔方法生成大量的全息图作为数据集,训练对抗生成网络。这类方法所使用的训练集均是通过传统的迭代优化算法计算生成的全息图。因此,网络模型的性能直接受限于训练集的质量,间接受限于传统迭代优化算法。如何打破这些限制成为深度学习应用于计算生成全息图的一个关键挑战。更重要的是,卷积层作用于输入的空间维度,最适合于建模和计算输入与输出之间的空间关系映射。卷积神经网络将在物平面中定义的图像跨域映射到在全息图平面中定义的纯相位全息图掩模,存在着空间对应关系不能得到保留,无法发挥卷积神经网络强大的特征映射能力的问题。
发明内容
为了解决上述背景技术中的问题,本申请提供一种基于相位-双分辨率网络的全息图快速生成方法,主要技术方案如下:
构建相位-双分辨率网络模型fnet1和fnet2;
经过训练的相位-双分辨率网络fnet1,根据输入的目标强度图I计算出初始相位φ0;
根据初始相位φ0与目标强度图I,计算出复值波场Uz;根据角谱法,计算复值波场Uz在自由空间传播-z后得到的复值波场U0;
经过训练的相位-双分辨率网络fnet2,根据输入的复值波场U0计算出纯相位的全息图。
优选地,所述构建相位-双分辨率网络模型包括:
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于中国矿业大学(北京),未经中国矿业大学(北京)许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202210029238.1/2.html,转载请声明来源钻瓜专利网。