[发明专利]基于机器学习的结构光照明超分辨显微成像方法有效
申请号: | 201910477092.5 | 申请日: | 2019-06-03 |
公开(公告)号: | CN110221421B | 公开(公告)日: | 2020-10-16 |
发明(设计)人: | 龚薇;斯科;吴晨雪 | 申请(专利权)人: | 浙江大学 |
主分类号: | G02B21/06 | 分类号: | G02B21/06;G02F1/01;G02B26/06;G01N21/01 |
代理公司: | 杭州求是专利事务所有限公司 33200 | 代理人: | 林超 |
地址: | 310058 浙江*** | 国省代码: | 浙江;33 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 机器 学习 结构 照明 分辨 显微 成像 方法 | ||
本发明公开了一种基于机器学习的结构光照明超分辨显微成像系统和方法。系统沿光路方向依次分布为数字微镜器件DMD、反射镜M、第一透镜L1、主动调相系统APM、第二透镜L2和电荷耦合器件CCD;方法利用畸变的条纹图样和其对应的散射相位重构系数,形成训练数据集,再通过深度卷积神经网络算法构建出对应的学习模型,从而对未知散射相位重构系数的畸变条纹图样进行快速校正,获得高精度的校正条纹图样。本发明对结构光照明显微镜中的条纹结构光进行了像差校正,速度快、精度高,能够提高显微系统的成像深度并优化成像质量,拓展结构光照明显微镜的应用范围。
技术领域
本发明属于超分辨显微成像领域中的自适应光学波前像差校正方法,特别涉及了一种基于机器学习的针对结构光照明显微术中条纹图样进行像差高速自适应光学校正的系统和方法,以提高显微系统的成像深度并优化成像质量,拓展结构光照明显微镜的应用范围。
背景技术
在生命科学研究中,荧光显微镜由于具有特异性可标记性、能够对活体细胞进行实时成像等优点,被广泛应用。但由于荧光显微镜局限于“衍射极限”的限制,其在生命医学研究领域的使用被大大局限。近些年来,科研人员提出了能够突破“衍射极限”的超分辨显微技术,包括受激发射损耗显微镜技术,光激活定位显微镜技术,随机光学重建显微镜技术与结构光照明显微镜技术等。
其中,结构光照明显微镜是基于宽场荧光显微镜的,通过特殊的条纹光束照明样本,再利用重构算法从图像信息中汇总提取样本信息,重构出超分辨的图像,实现“衍射极限”的突破。结构光照明显微镜凭借其成像速度快、结构简单、对成像样本无特殊要求等优势,引起了广泛关注,而且该技术能够应用于活体生物组织的动态三维成像领域。
但由于深层组织会带来散射及像差,结构光照明显微镜的成像深度受到一定程度的局限。为了实现结构光照明显微镜的大深度成像,可以将自适应光学引入显微系统中,以提高显微系统的分辨率,优化图像质量。自适应光学最早应用于天文学研究中,用以补偿大气湍流带来的光学畸变等;现被逐步应用于超分辨显微成像领域,进而解决光束经过光学系统及生物样本时带来的信噪比、分辨率降低,成像质量下降等问题。
因此研究如何将自适应光学校正方法运用于结构光照明显微镜技术中的条纹图样至关重要。
发明内容
为了解决结构光照明显微镜在深层组织成像时的散射以及像差问题,本发明提供了一种基于机器学习的结构光照明超分辨显微成像系统和方法。
本发明采用的技术方案如下所示:
一、一种基于机器学习的结构光照明超分辨显微成像系统:
系统沿光路方向依次分布为数字微镜器件DMD、反射镜M、第一透镜L1、主动调相系统APM、第二透镜L2和电荷耦合器件CCD;数字微镜器件DMD放置在第一透镜L1的前焦面,反射镜M用于偏转光路,主动调相系统APM位于第二透镜L2的前焦面,电荷耦合器件CCD位于第二透镜L2的后焦面,第一透镜L1的后焦面和第二透镜L2的前焦面重合,第二透镜L2的后焦面作为所述系统的聚焦平面,第一透镜L1和第二透镜L2构成一个4F系统;入射光依次经过数字微镜器件DMD反射、反射镜M反射、第一透镜L1透射、主动调相系统APM 反射、第二透镜L2透射后,在聚焦平面上聚焦成像,再由聚焦平面处的电荷耦合器件CCD探测并得到图像。
主动调相系统APM采用空间光调制器SLM。空间光调制器SLM含有许多的独立单元,光束照明在独立单元上对其进行调控,根据各种物理效应,可改变其光学特性,进而对照明光束进行调控。各种物理效应具体为:声光效应、磁光效应、光折变效应等。具体实施中,空间光调制器SLM也可用可变形反射镜DM 替代。
所述的数字微镜器件DMD根据反射原理产生条纹图样结构光,光束通过系统将数字微镜器件DMD上的条纹图样结构光成像于聚焦平面,由电荷耦合器件 CCD完成探测,得到对应的条纹图像。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于浙江大学,未经浙江大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/201910477092.5/2.html,转载请声明来源钻瓜专利网。