[发明专利]一种基于StrainNet的染色方法在审
申请号: | 202110302595.6 | 申请日: | 2021-03-22 |
公开(公告)号: | CN113052813A | 公开(公告)日: | 2021-06-29 |
发明(设计)人: | 潘晓光;王小华;令狐彬;张雅娜;宋晓晨 | 申请(专利权)人: | 山西三友和智慧信息技术股份有限公司 |
主分类号: | G06T7/00 | 分类号: | G06T7/00;G06T5/00;G06T7/38;G06T7/90;G06T11/00;G06K9/62;G06N3/04;G06N3/08 |
代理公司: | 太原荣信德知识产权代理事务所(特殊普通合伙) 14119 | 代理人: | 杨凯;连慧敏 |
地址: | 030006 山西省*** | 国省代码: | 山西;14 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 一种 基于 strainnet 染色 方法 | ||
本发明属于病理图像处理技术领域,具体涉及一种基于StrainNet的染色方法,包括如下步骤:数据采集、数据预处理、模型构建、模型评价、模型保存,所述数据采集通过采集医院患者宫颈细胞病理切片的扫描图像,并对获取的图像进行标注,完成模型训练所需数据集的构建;所述数据预处理包括归一化、图像缩放、数据分割;所述模型构建采用深度学习技术搭建识别模型,输入训练数据,完成参数模型的搭建。本发明通过利用StainGAN的输出作为Ground Truth来实现无监督训练,StainNet可以从整个数据集而不是单一的图像中学习颜色映射关系,并优于目前最先进的染色归一化方法,获得了更好的精度和图像质量。
技术领域
本发明属于图像处理技术领域,具体涉及一种基于StrainNet的染色方法。
背景技术
组织或细胞通常是透明的,在显微镜下观察之前必须染色,然而,染色过程、操作能力和扫描仪规格的差异往往导致病理图像的表现非常不同,这些变异不仅影响病理学家的诊断,也会影响CAD系统的性能。
存在问题或缺陷的原因:染色归一化是指逐像素调整图像的颜色值,使源图像的颜色分布与目标图像的颜色分布相匹配,并保留处理后图像中的所有源信息的过程,染色归一化是CAD系统提高预测精度的重要预处理任务,然而传统的方法高度依赖参考图像,目前基于深度学习的方法可能会在颜色强度或纹理上出现错误的变化,且计算效率低下。
发明内容
针对上述目前基于深度学习的方法可能会在颜色强度或纹理上出现错误的变化且计算效率低下的技术问题,本发明提供了一种精度高、质量好、效率高的基于StrainNet的染色方法。
为了解决上述技术问题,本发明采用的技术方案为:
一种基于StrainNet的染色方法,包括下列步骤:
S100、数据采集:采集医院患者宫颈细胞病理切片的扫描图像,并对获取的图像进行标注,完成模型训练所需数据集的构建;
S200、数据预处理:预处理包括归一化、图像缩放、数据分割;
S300、模型构建:采用深度学习技术搭建识别模型,输入训练数据,完成参数模型的搭建;
S400、模型评价:使用结构相似度指数SSIM和峰值信噪比PSNR用于评估与目标图像的相似度;
S500、模型保存:当StainNet网络模型和StainGAN网络模型的预测结果通过L1损失函数获得的损失值不再降低之后,保存模型。
所述S100数据采集中,通过使用两种载片扫描仪扫描来自医院患者的宫颈细胞病理切片,第一台扫描仪使用一个20倍物镜,分辨率为每像素0.2930米,第二台扫描仪使用了一个40倍的物镜,分辨率为0.1803米/像素,将第二台扫描仪的图像调整到分辨率为0.2930m/像素,然后对第一台扫描仪的图像进行刚性配准和非刚性配准,使第二台扫描仪的图像与第一台扫描仪的图像对齐,最终获取原始数据集用于模型的训练。
所述S200数据预处理中,归一化方式为对每个像素点除以225,图像缩放方式为将图像数据按照大小比例全部调整为256*256的尺寸;数据分割方式为将原始数据集按照7:3的比例分为训练集和测试集。
所述S300模型构建中,使用基于GAN的无监督染色归一化方法StainGAN训练源和目标图像不配对的生成器,通过预先训练好的StainGAN模型对训练集和测试集的源图像进行归一化处理,并将归一化后的图像作为训练过程中的Ground truth,将StainGAN模型训练后的图像与StainNet模型训练后的图像使用L1损失函数来最小化模型输出与映射图像之间的差异,L1损失函数公式如下:其中y(i)为目标值,为估计值。
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于山西三友和智慧信息技术股份有限公司,未经山西三友和智慧信息技术股份有限公司许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202110302595.6/2.html,转载请声明来源钻瓜专利网。