[发明专利]基于高光谱和深度学习的肾小球区域精准检测方法及系统在审
申请号: | 202211049474.6 | 申请日: | 2022-08-30 |
公开(公告)号: | CN115406841A | 公开(公告)日: | 2022-11-29 |
发明(设计)人: | 吕蒙;王沛;杨悦;张浩仟;李伟;刘诗雨;孔令玉;钱奕妤;张杰雅 | 申请(专利权)人: | 北京理工大学 |
主分类号: | G01N21/25 | 分类号: | G01N21/25;G01N21/84;G06V40/14;G06V20/69;G06V10/82;G06V10/25;G06V10/30;G06V10/764;G06V10/774;G06N3/08 |
代理公司: | 四川省方圆智云知识产权代理事务所(普通合伙) 51368 | 代理人: | 严晓玲 |
地址: | 100081 *** | 国省代码: | 北京;11 |
权利要求书: | 查看更多 | 说明书: | 查看更多 |
摘要: | |||
搜索关键词: | 基于 光谱 深度 学习 肾小球 区域 精准 检测 方法 系统 | ||
本发明提供一种基于高光谱和深度学习的肾小球区域精准检测方法及系统,包括:步骤1.获取已标注的高光谱显微图像;步骤2.基于区域标注,对实例分割网络进行训练;步骤3.获取待分析图片,将其输入训练好的实例分割网络中,得到待分析图片中各个系膜基质和与其关联的毛细血管袢区域的位置;步骤4.计算各个系膜基质和与其关联的毛细血管袢区域的面积比;步骤5.输出彩色病理图文报告。本发明将根据医生的临床经验主观阅片变为根据计算机的深度学习客观阅片——自动划分高光谱图像上的系膜基质和与其关联的毛细血管袢,计算二者的面积比,实现定量化分析。
技术领域
本发明涉及一种基于高光谱和深度学习的肾小球区域精准检测方法及系统,属于信息通讯工程的信息与信号处理领域。
背景技术
慢性肾脏病(chronic kidney disease,CKD)是全球性的公共卫生问题,其发病率超过10%。在CKD中,膜性肾病(membranousnephropathy,MN)是导致成人肾病综合征的一个常见病因。膜性肾病中,以IgA和补体C3为主的沉积于肾小球系膜区的肾小球疾病,称为IgA肾病(IgA nephropathy)。IgA肾病有明显的区域性分布,亚洲地区为高发区,占肾活检病例的30%-40%。
传统的诊断方式是根据医生的临床经验主观阅片,但是经验难以传承,不具备智能性。另外,我国病理医生缺口在10万人次以上,有读片效力的医生需要每年阅片1000次以上,超过五年的经验积累。由于医疗资源区域分配不均衡,偏远地区的医生缺乏阅片机会,常因阅片不准导致病情延误。
发明内容
为解决上述技术问题,本发明基于高光谱成像技术与深度学习,设计了一种肾小球区域的精准检测方法,实现客观阅片,即定量化分析。
一种基于高光谱和深度学习的肾小球区域精准检测方法,包括以下步骤:
步骤1.获取已标注的高光谱显微图像;
步骤1.1.肾脏组织病理切片制备;
步骤1.2.高光谱显微成像;
步骤1.3.手动定位病理图像中感兴趣的区域(系膜基质和与其关联的毛细血管袢);
步骤1.4.使用ENVI5.3标注系膜基质和与其关联的毛细血管袢区域;
步骤2.基于区域标注信息,对实例分割网络进行训练,所述训练过程包括:
步骤2.1.编写全部图片获取程序,读取红绿两色TIFF格式图片数据;
步骤2.2.将高光谱辐射观测值归一化,并进行均值滤波降噪;
步骤2.3.编写数据获取程序,读取数据和标志文件;
步骤2.4.以病人为单位,从23位患者的肾脏组织病理切片中随机选取3人为训练集,3人为测试集,剩余17人为验证集,生成若干份随机划分的数据集文件(高光谱图像总数为165张);
步骤2.5.编写分类模型的训练函数程序,选择一份数据集文件,并读取训练集、测试集和验证集;
步骤2.6.采用使用支持向量机(support vector machine,SVM)分类器,同时选择一组超参数,循环利用训练集训练模型,验证集评价模型,以分类验证精度作为评价标准,选择最好的模型;
步骤2.7.利用测试机测试模型,引入混淆矩阵,对测试结果进行评价,输出评价结果;
步骤3.获取待分析图片,将其输入训练好的实例分割网络中,得到待分析图片中各个系膜基质和与其关联的毛细血管袢区域的位置;
步骤3.1.肾脏组织病理切片制备;
步骤3.2.高光谱显微成像;
该专利技术资料仅供研究查看技术是否侵权等信息,商用须获得专利权人授权。该专利全部权利属于北京理工大学,未经北京理工大学许可,擅自商用是侵权行为。如果您想购买此专利、获得商业授权和技术合作,请联系【客服】
本文链接:http://www.vipzhuanli.com/pat/books/202211049474.6/2.html,转载请声明来源钻瓜专利网。