[发明专利]一种基于神经网络的全息编码方法在审
申请号: | 202110942616.0 | 申请日: | 2021-08-17 |
公开(公告)号: | CN113658330A | 公开(公告)日: | 2021-11-16 |
发明(设计)人: | 王翘楚;蔡玉彤;夏军 | 申请(专利权)人: | 东南大学 |
主分类号: | G06T17/00 | 分类号: | G06T17/00;G06N3/04;G06N3/08;G06T15/50 |
代理公司: | 南京瑞弘专利商标事务所(普通合伙) 32249 | 代理人: | 孙峰 |
地址: | 211189 江*** | 国省代码: | 江苏;32 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 神经网络 全息 编码 方法 | ||
本发明公开了一种基于神经网络的全息编码方法,包括:将目标复振幅分解为两个通道的实数数据,并将该实数数据作为神经网络模型的输入;通过所述神经网络模型对所述实数数据进行处理,得到单通道全息编码结果;将获取的单通道全息编码结果加载到空间光调制器上,得到输出光;构建光学系统,并且将得到的输出光通过所述光学系统传播,最后得到单通道全息编码图恢复的目标复振幅结果。本发明生成的全息编码结果进行全息重建,重建出的全息结果具有更小的噪声,同时该方法可广泛应用于复振幅场景下的全息编码和全息重建中,为全息显示的进一步发展提供了新思路。
技术领域
本发明涉及全息图编码,特别是涉及一种基于神经网络的全息编码方法。
背景技术
全息显示技术是一种能够重建三维场景复振幅光场的技术,也因此被认为是最理想的下一代立体显示技术。随着计算机技术和液晶显示技术的不断发展,只要一个三维场景能够在数学上被描述出来,我们就可以摆脱传统全息中复杂的干涉记录过程,不必使用高相干度光源系统的记录干板,而在计算机中数值计算全息图来重建真实存在或后期合成的场景。
由于缺乏能够同时调制振幅和相位的复振幅调制器件,目前在数字全息领域被广泛采用的算法只能控制一个维度的光场信息,而另一个维度则是随机不可控的,导致重建全息图的质量低。缺乏复振幅调制器件,无法实现真正的复振幅光场重建,使得当前全息显示技术面临巨大瓶颈。
神经网络是一种非线性的统计性数学建模工具,能够学习到数据的深层高级特征,具有比浅层算法更强大的非线性表示能力。神经网络可以提供一种新型的全息图计算方法,通过对目标物体复振幅信息进行降维,达到使用单个空间光调制器重建目标物体复振幅的效果。
发明内容
有鉴于此,本发明的目的在于提供一种基于神经网络的全息编码方法,该方法利用神经网络将二维目标复振幅数据降维成一维全息编码数据,弥补了现有光场调制器件的不足,有效提高了目标复振幅的重建质量。
为了实现上述目的,本发明采用如下技术方案:
一种基于神经网络的全息编码方法,其特征在于,包括如下步骤:
步骤S1、将目标复振幅分解为两个通道的实数数据,并将该实数数据作为神经网络模型的输入;
步骤S2、通过所述神经网络模型对所述实数数据进行处理,得到单通道全息编码结果;
步骤S3、将步骤S2中获取的单通道全息编码结果加载到空间光调制器上,得到输出光;
步骤S4、构建光学系统,并且将步骤S3中得到的输出光通过所述光学系统传播,最后得到单通道全息编码图恢复的目标复振幅结果。
进一步的,所述将目标复振幅分解为两个通道的实数数据的方法具体包括:将目标复振幅分解为目标复振幅分布的实部与虚部、将目标复振幅分解为目标复振幅分布的振幅分布和相位分布或者分解为两个振幅分布相同,相位分布不相同的复振幅分布。
进一步的,所述步骤S2中,所述神经网络模型具体通过如下方式训练得到:
步骤S201、构建数据集,具体包括:获取若干张图像,对这些若干张图像随机两两组合,得到多个组合,并且将每组中的一张图像定义为目标振幅分布,相应的,另外一张图像定义为目标相位分布,然后再将目标振幅分布和目标相位分布合成为目标复振幅分布,得到若干张复振幅分布图像,将所述的若干张复振幅分布图像按照一定比例划分为训练集和测试集;
步骤S202、构建计算模型,所述计算模型为U-Net或者ResNet,所述U-Net包括多组对称的编码器-解码器结构,所述编码器依次包括卷积层、批归一化层和ELU激活函数层,所述解码器依次包括反卷积层、批归一化操作层、负数区域斜率为0.2的LeakyReLU激活函数层;其中,所述卷积层与所述反卷积层均采用4×4卷积核且步长为2;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于东南大学,未经东南大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110942616.0/2.html,转载请声明来源钻瓜专利网。